ZUFALLSVEKTOREN. BEDINGTE ERWARTUNGSWERTE. NORMALVERTEILUNG

Größe: px
Ab Seite anzeigen:

Download "ZUFALLSVEKTOREN. BEDINGTE ERWARTUNGSWERTE. NORMALVERTEILUNG"

Transkript

1 KAPITEL 1 ZUFALLSVEKTOEN. BEDINGTE EWATUNGSWETE. NOMALVETEILUNG In diesem Kapitel werden zunächst die Begriffe eingeführt, mit denen man zweidimensionale Zufallsvektoren und deren Verteilungen beschreibt. Für die Teilfamilien der Zufallsvektoren mit diskreter und die mit absolut stetiger Verteilung werden dann der bedingte Erwartungswert und die zugehörigen echenregeln behandelt. Das Kapitel schliesst mit einer Untersuchung der zweidimensionalen Normalverteilungen. 1. Definitionen und erste Eigenschaften. Wie bereits in Kapitel 5, 3, definiert, ist eine zweidimensionale Zufallsvariable man sagt auch zweidimensionaler Zufallsvektor) eine messbare Abbildung X :Ω, A, P), B ). Die beiden kanonischen Projektionen von in werden mit π i :x 1,x ) x i i =1, ) bezeichnet. Die Koordinatenabbildungen von Ω, A, P) in, B 1 ) sind durch X i = π i X i =1, ) definiert; sie sind beide messbar. Es handelt sich also um zwei Zufallsvariable, die auch als marginale Zufallsvariable bezeichnet werden. Man schreibt oft X =X 1,X ) ) X1 oder X = und man spricht von X auch als einem Paar von Zufallsvariablen. X Es sei nun X : Ω, A, P), B ) ein zweidimensionaler Zufallsvektor. In Kapitel 5, 4, wurde als Wahrscheinlichkeitsverteilung des Vektors X die mit P X notierte Abbildung bezeichnet, die jedem B B die Zahl P X B) =PX 1 B)) zuordnet. Entsprechend Satz 4.1 von Kapitel 5 ist die Abbildung P X ein Wahrscheinlichkeitsmass auf, B ), genannt Wahrscheinlichkeitsverteilung von X. Man spricht auch von der gemeinsamen Verteilung des Paares X =X 1,X ). Wie schon für diskrete Zufallsvariable ausgeführt siehe Korollar 1. von Kap. 8), bestimmt X = X 1,X ) die Verteilungen der marginalen Zufallsvariablen X 1, X. Dies formulieren wir noch einmal im nächsten Satz. Satz 1.1. Die gemeinsame Verteilung P X von X = X 1,X ) bestimmt die Verteilungen genannt andverteilungen oder marginale Verteilungen ) P X1, P X der marginalen Zufallsvariablen X 1, X auf folgende

2 170 KAPITEL 1: ZUFALLSVEKTOEN Weise. Für alle B B 1 gilt P Xi B) =P X π 1 i B) ) i =1, ), d.h. P Xi ist das Bild von P X unter der Abbildung π i. Beweis. Es gilt X i = π i X. Damit folgt P Xi B) =P X 1 i B) ) = P X 1 π 1 i B) ) =P X π 1 i B) ) für jedes B B 1. Definition. Alsgemeinsame) Verteilungsfunktion der Verteilung) von X =X 1,X ) bezeichnet man die durch Fx 1,x )=P{X 1 x 1,X x } definierte Funktion von zwei reellen Variablen. Sie lässt sich mittels der gemeinsamen Verteilung von X ausdrücken: Fx 1,x )=P X ],x1 ] ],x ] ). Die gemeinsamen Verteilungsfunktionen von Paaren von Zufallsvariablen sind nicht sehr gebräuchlich, und sei es nur deshalb, weil es keine natürliche Ordnungsrelation auf dem gibt. Wir werden ihre Eigenschaften daher nicht im Detail behandeln siehe jedoch Aufgabe 11 von Kap. 5). Gleichwohl sollen die drei folgenden Aussagen festgehalten werden. Satz 1.. Die Kenntnis der gemeinsamen Verteilungsfunktion eines Paares X =X 1,X ) von Zufallsvariablen ist der Kenntnis der Verteilung von X gleichwertig. Satz 1.3. Die gemeinsame Verteilungsfunktion F eines Paares X = X 1,X ) von Zufallsvariablen erlaubt es, die Verteilungsfunktionen F 1, F der marginalen Zufallsvariablen X 1, X d.h. der marginalen Verteilungsfunktionen) wie folgt zu berechnen: F 1 x 1 )=P{X 1 x 1 } = lim Fx 1,x )=Fx 1, + ); x + F x )=P{X x } = lim Fx 1,x )=F+,x ). x 1 + Satz 1.4. Die marginalen Zufallsvariablen X 1, X sind genau dann unabhängig, wenn die gemeinsame Verteilungsfunktion des Paares X 1,X ) gleich dem Produkt der marginalen Verteilungsfunktionen ist. Der Transportsatz wurde in Kapitel 11, Satz 1.1, für den Fall von reellen Zufallsvariablen formuliert. Wir begnügen uns hier damit, die entsprechende

3 . WAHSCHEINLICHKEITSDICHTEN 171 Aussage für zweidimensionale Zufallsvariable festzuhalten. Der Beweis verläuft völlig analog. Theorem 1.5 Transportsatz). Es sei X :Ω, A, P), B ) ein Zufallsvektor und P X sei seine Verteilung. Ferner sei g :, B ), B 1 ) eine messbare Funktion. Dann ist g X eine Zufallsvariable und es gilt die Gleichheit ) g X) dp = gdp X = gx 1,x ) dp X x 1,x ), Ω und zwar unter der Voraussetzung, dass eine der Seiten als abstraktes Integral existiert, d.h. absolut konvergiert. Ist dies der Fall, dann bezeichnet man den gemeinsamen Wert beider Seiten als E[g X] oder als E[gX 1,X )]. Zu bemerken bleibt, dass der Ausdruck auf der rechten Seite ein Integral auf, B, P X ) ist und deshalb ausgehend von der Verteilung P X von X berechnet werden kann.. Absolut stetige Wahrscheinlichkeitsverteilungen und Dichten. Ebenso wie im Falle von Wahrscheinlichkeitsmassen auf der reellen Geraden gibt es eine wichtige Klasse von Wahrscheinlichkeitsmassen auf, B ), die man mittels nichtnegativer Funktionen von zwei reellen Variablen definieren kann, die bezüglich des Lebesgue-Masses auf, B ) integrierbar sind cf. Kap. 10, 5). Es handelt sich um die absolut stetigen Wahrscheinlichkeitsmasse. Ihre Definition wird anschliessend in der Terminologie der Paare von Zufallsvariablen gegeben. Der Bequemlichkeit halber werden wir von nun an ein Paar von Zufallsvariablen mittels X, Y ) statt wie oben) mittels X 1,X ) bezeichnen. Definition. EsseiX, Y ) ein Paar von Zufallsvariablen und P X,Y dessen gemeinsame Verteilung. Man bezeichnet die Verteilung P X,Y als absolut stetig bezüglich des Lebesgue-Masses auf, B )), wenn es eine messbare Funktion f :, B ) +, B 1 ) mit nichtnegativen Werten gibt derart, dass für jedes B B.1) P X,Y B) = fx, y) dx dy = fx, y) I B x, y) dx dy B gilt. Die Funktion f heisst gemeinsame Wahrscheinlichkeits-)Dichte der Verteilung) von X, Y ). Man schreibt auch f X,Y x, y). Satz.1. Für jede gemeinsame Wahrscheinlichkeitsdichte f gilt: a) f 0; b) fx, y) dx dy =1; c) die gemeinsame Verteilungsfunktion F=F X,Y kann durch Fx, y) = fu, v) du dv dargestellt werden; ],x] ],y] d) falls f im Punkt x 0,y 0 ) stetig ist, gilt fx 0,y 0 )= F x, y) im x y Punkt x, y) =x 0,y 0 ).

4 17 KAPITEL 1: ZUFALLSVEKTOEN Satz.. Falls das Paar X, Y ) absolut stetig ist, so sind auch seine marginalen Zufallsvariablen absolut stetig, und die gemeinsame Dichte fx, y) =f X,Y x, y) bestimmt die marginalen Dichten f X x), f Y y) mittels der Formeln f X x) = f X,Y x, y) dy, f Y y) = f X,Y x, y) dx. Satz.3. Es sei X, Y ) ein Paar von Zufallsvariablen, fx, y) sei die gemeinsame Dichte und f X x) bzw. f Y y) seien die marginalen Dichten von X bzw. Y. Dann sind die beiden folgenden Aussagen gleichwertig: a) X und Y sind unabhängig; b) für Lebesgue-)fast alle x, y) gilt f X,Y x, y) =f X x)f Y y). Beweis. a) b). Wir nehmen zunächst X, Y ) als unabhängig an. F = F X,Y bezeichne die gemeinsame Verteilungsfunktion und F X,F Y die jeweiligen marginalen Verteilungsfunktionen. Dann gilt für alle x, y) Fx, y) =F X x)f Y y). Nimmt man die gemischte Ableitung / x y)f von beiden Seiten sie existiert Lebesgue-fast sicher), so erhält man b). b) a). Sei nun b) gegeben; dann hat man für jedes x, y) Fx, y) = f X u) f Y v) du dv ],x] ],y] = f X u) du f Y v) dv =F X x)f Y y). ],x] Dann aber sind X und Y unabhängig. ],y] Satz.4. Es sei X, Y ) ein Paar von absolut stetigen Zufallsvariablen mit gemeinsamer Dichte f. Ferner sei g :, B ), B 1 ) eine messbare Funktion. Dann ist g X, Y ) eine Zufallsvariable mit Erwartungswert E[g X, Y )] = gx, y)fx, y) dx dy, vorausgesetzt, dass das Integral auf der rechten Seite absolut konvergiert.

5 3. BEDINGTE EWATUNGSWET Bedingte Verteilung, bedingter Erwartungswert, egression. Wie immer man das Problem anpackt, das Konzept des bedingten Erwartungswertes zu definieren, so bleibt es doch ein schwieriges Unterfangen, dies mit aller gebotenen Genauigkeit zu tun. Wir werden nacheinander die beiden gebräuchlichsten Situationen behandeln, nämlich wennx, Y ) diskret bzw. oder wenn es absolut stetig ist. Natürlich kann man einen Formalismus einführen, der beide Fälle umfasst das schlagen wir in Aufgabe 1 vor. In jedem Fall muss man aber einen expliziten Ausdruck für die bedingte Wahrscheinlichkeitsverteilung oder den bedingten Erwartungswert finden. A) Der Fall eines diskreten Paares. Wir nehmen an, dass X, Y )ein Paar von diskreten Zufallsvariablen mit Werten x i,y j ) sei, wobei die Indices i bzw. j) eine endliche oder abzählbare Menge I bzw. J) durchlaufen. Wir setzen P{X = x i,y = y j } = p ij,p{x = x i } = p i. P{Y = y j } = p.j. Vorausgesetzt wird, dass die x i bzw. y j ) paarweise verschieden sind und die Wahrscheinlichkeiten p i. resp. p.j ) alle positiv sind. Für festes i I und alle j J sei 3.1) b i j) =P{Y = y j X = x i } = P{X = x i,y = y j } P{X = x i } = p ij p i.. Das diskrete Mass j J b ij) ε yj,dasvondeny j j J) getragen wird, ist eine Wahrscheinlichkeitsverteilung. Man bezeichnet sie in naheliegender Weise als die durch {X = x i } bedingte Verteilung von Y. Wir setzen nun voraus, dass der Erwartungswert von Y endlich ist, dass also die eihe mit dem allgemeinen Glied p.j y j j J) absolut konvergiert. Dann ist für festes i die eihe mit dem allgemeinen Glied b i j)y j j J) ebenfalls absolut konvergent. Es ist naheliegend, die Summe dieser eihe als den durch {X = x i } bedingten Erwartungswert von Y zu bezeichnen und mit E[Y X = x i ]zunotieren.mansetztalso E[Y X = x i ]= j J b i j) y j. Ordnet man jedem Wert E[Y X = x i ] die Wahrscheinlichkeit p i. i I) zu, so definiert man damit die Verteilung einer gewissen Zufallsvariablen, die mit E[Y X] notiert wird. Sie heisst die durch X bedingte Erwartung von Y.Man mache sich klar, dass es sich bei E[Y X] um eine Zufallsvariable handelt. Deren Erwartungswert kann man berechnen: E[E[Y X]]= p i. E[Y X = x i ]= p i. b i j) y j i I i I j J = p ij p i. y j = p.j y j = E[Y ]. p i. i I j J j J

6 174 KAPITEL 1: ZUFALLSVEKTOEN Diese Formel wird uns in Theorem 3.3 wieder begegnen. Ganz analog kann man, indem man a j i) =P{X = x i Y = y j } = p ij /p.j setzt, die durch {Y = y j } bedingte Verteilung von X mittels i I a ji)ε xi definieren, und weiter, wenn X einen endlichen Erwartungswert hat, den durch {Y = y j } bedingten Erwartungswert von X als E[X Y = y j ]= i I a ji)x i, und schliesslich E[X Y ] als Zufallsvariable, die in jedem j J mit Wahrscheinlichkeit p.j den Wert E[X Y = y j ] annimmt. B) Der Fall eines absolut stetigen Paares. Es geht nun darum, ein Analogon der Formel 3.1) zu finden. Die Schwierigkeit rührt daher, dass P{X = x} =0für jedes reelle x gilt. Bezeichne nun fx, y) =f X,Y x, y) die gemeinsame Dichte und seien f X x), f Y y) die marginalen Dichten. Wir werden sehen, dass man eine bedingte Wahrscheinlichkeitsverteilung und einen bedingten Erwartungswert in befriedigender Weise definieren kann, wenn man die Grössen P{X = x, Y = y} bzw. P{X = x} durch f X,Y x, y) bzw. durch f X x) ersetzt. Definition. EsseiX, Y ) ein Paar von absolut stetigen Wahrscheinlichkeitsverteilungen, es sei f X,Y x, y) die gemeinsame Dichte, sowie f X x), f Y y) die marginalen Dichten. Weiter seien g 0 y) und h 0 x) zweibeliebige Wahrscheinlichkeitsdichten auf, B 1 ). Als die durch {X = x} bedingte Dichte von Y bezeichnet man die durch f X,Y x, y), falls f X x) > 0 gilt; f Y X y x) = f X x) g 0 y), sonst, definierte Funktion f Y X x) vony. Analog bezeichnet man als die durch {Y = y} bedingte Dichte von X die Funktion f X Y y) vonx mit f X,Y x, y), falls f Y y) > 0; f X Y x y) = f Y y) h 0 x), sonst. Bemerkung 1. Es folgt sofort, dass für fast alle x die Gleichheit 3.) f X,Y x, y) =f X x)f Y X y x) für fast alle y gilt. Denn diese Gleichheit gilt per Definition, falls f X x) > 0 ist. Ist f X x 0 ) = 0, d.h. f X,Y x 0,y) dy =0,alsoistf X,Y x 0,y)=0für fast alle y, und deshalb ist f X,Y x 0,y)=f X x 0 )f Y X y x 0 )für fast alle y. Entsprechend sieht man, dass für fast alle y die Gleichheit 3.3) f X,Y x, y) =f Y y)f X Y x y) für fast alle x gilt.

7 3. BEDINGTE EWATUNGSWET 175 Bemerkung. Es folgt f X x) = f X Y x y) f Y y) dy, f Y y) = f Y X y x) f X x) dx, d.h. jede marginale Dichte ist konvexe Kombination der bedingten Dichten. Satz 3.1. Für jedes x hat die Funktion f Y X x) alle Eigenschaften einer Wahrscheinlichkeitsdichte. Ebenso hat die Funktion f X Y y) für jedes y alle Eigenschaften einer Wahrscheinlichkeitsdichte. Die Beweise sind offensichtlich. Satz 3.. Es sei X, Y ) ein Paar von absolut stetigen Zufallsvariablen. Mit f X x), f Y y), f Y X x), f X Y y) werden die marginalen Dichten und bedingten Dichten bezeichnet. Falls das Paar X, Y ) unabhängig ist, gilt: 1) Für jedes x mit f X x) > 0 ist f Y X y x) =f Y y). ) Für jedes y mit f Y y) > 0 ist f X Y x y) =f X x). Die Beweise sind wieder offensichtlich. Definition Bedingter Erwartungswert). Es sei X, Y ) ein absolut stetiges Paar von Zufallsvariablen. Alle obigen Notationen über marginale Dichten und bedingte Dichten werden weiterhin verwendet. Speziell bezeichne f Y X x) die durch {X = x} bedingte Dichte von Y.Für jedes reelle x kann man das Integral yf Y Xy x) dy, wenn es denn absolut konvergiert, als den Erwartungswert von Y bezüglich der Wahrscheinlichkeitsdichte f Y X x) interpretieren. Falls also das Integral absolut konvergiert, setzt man 3.4) E[Y X = x] = yf Y X y x) dy und nennt dies den durch {X = x} bedingten Erwartungswert von Y. Die Abbildung e : x ex) =E[Y X = x] ist nun eine reelle Funktion einer reellen Variablen. Die Komposition e X ist eine auf Ω, A, P) definierte reelle Zufallsvariable. Sie wird mit E[Y X] notiert und man bezeichnet sie als den durch X bedingten Erwartungswert von Y. Ganz entsprechend definiert man den durch Y bedingten Erwartungswert von X. Im nächsten Theorem werden wir den Erwartungswert der reellen Zufallsvariablen E[Y X] betrachten. Man beachte, dass dieser Erwartungswert nicht etwa auf dem aum Ω, A, P), sondern vielmehr auf dem aum, B 1, P X ) berechnet wird, und zwar in Bezug auf die Verteilung P X von X. Gleichwohl soll angemerkt werden, dass in weiterführenden Darstellungen der Theorie der Begriff des bedingten Erwartungswertes in natürlicher Weise auf dem aum Ω, A, P) definiert wird.

8 176 KAPITEL 1: ZUFALLSVEKTOEN Theorem 3.3 Satz über den bedingten Erwartungswert). Es sei X, Y ) ein absolut stetiges Paar von Zufallsvariablen mit E[ Y ] < +. Dann ist E[Y ]=E[ E[ Y X ]]. Beweis. Formal geschrieben gilt E[Y ]= yf X,Y x, y) dx dy = yf X x) f Y X y x) dx dy [ ] = yf Y X y x) dy f X x) dx = E[Y X = x] f X x) dx = E[ E[ Y X ]]. Unter der Annahme E[ Y ] < + ist diese formale echnung korrekt. Definition egressionskurve). Es sei X, Y ) ein Paar von Zufallsvariablen mit E[ X ] < + und E[ Y ] < +. Der Graph der Abbildung x E[Y X = x] heisst egressionskurve von Y in X. Der Graph der Abbildung y E[X Y = y] heisst entsprechend egressionkurve von X in Y. Bemerkung. Diese beiden Kurven sind im allgemeinen verschieden. Sind beispielsweise X und Y unabhängig, so ist der Graph von x E[Y X = x] eine zu 0x parallele Gerade und der Graph von y E[X Y = y] einezu0y parallele Gerade. Die egressionskurven haben, wie das nächste Theorem zeigt, eine Minimaleigenschaft, die insbesondere in der Statistik eine olle spielt. Theorem 3.4. Es sei X, Y ) ein Paar von Zufallsvariablen mit E[Y ] <. Die egressionskurve von Y in X hat die folgende Minimaleigenschaft: Es sei u eine messbare reelle Funktion derart, dass der Ausdruck 3.5) E[[Y ux)] ] endlich ist. Variiert man die messbare Funktion u, so variiert auch der Ausdruck 3.5), und zwar nimmt er für die Funktion ux) =E[Y X = x] einen minimalen Wert an. Der Wert dieses Minimums ist E[[Y E[Y X]] ]. Beweis. Wir nehmen hier an, dass das Paar X, Y ) absolut stetig ist und wir verwenden die entsprechenden, oben eingeführten Notationen. Es ist E[[Y ux)] ]= [y ux)] f X,Y x, y) dx dy [ ] = f X x) [y ux)] f Y X y x) dy dx. Für jedes fest gewählte reelle x nimmt das Integral in den eckigen Klammern seinen minimalen Wert für ux) = yf Y Xy x) dy = E[Y X = x] an. Dies besagt Satz 5.3 von Kapitel 8 im Falle von diskreten Zufallsvariablen, aber tatsächlich gilt dies für beliebige Zufallsvariable.

9 4. ECHENEGELN echenregeln für bedingte Erwartungen. In diesem Abschnitt stellen wir einige echenregeln für bedingte Erwartungen zusammen. Dabei werden die obigen Bezeichnungen für Erwartungswerte ob bedingt oder nicht) von X und von Y beibehalten. Wir werden E[Y X] alsauche X [Y ] schreiben. Mit g, h mit oder ohne Indices) werden messbare reelle Funktionen bezeichnet, deren Argumente sich aus dem jeweiligen Zusammenhang ergeben. Schliesslich wollen wir voraussetzen, dass alle vorkommenden Erwartungswerte tatsächlich existieren. Zunächst sei h eine messbare reellwertige Funktion von zwei reellen Variablen. Die Komposition h X, Y ) ist dann eine reelle Zufallsvariable. Man definiert deren durch {X = x} bedingten Erwartungswert als 4.1) E[h X, Y ) X = x] = Speziell für hx, y) =y ist das die Definition 3.4). hx, y) f Y X y x) dy. Theorem 4.1 1) Es gelten die Gleichheiten: E[ E[h X, Y ) X]]= E[h X, Y ) X = x] f X x) dx = E[h X, Y )]. Wählt man speziell hx, y) =gy),soerhält man die Formel für den bedingten Erwartungswert aus Theorem 3.3, nunfür die Zufallsvariable g Y E[ E[ g Y X ]]= E[ g Y X = x] f X x) dx = E[g Y ]. ) Sind X, Y unabhängig, so gilt E[g Y X] =E[g Y ]. 3) Es gilt stets E[g X X] =g X. 4) Für beliebige X und Y hat man E X [ E X [Y ]]=E X [Y ]; E[g 1 X)g Y ) X] =g 1 X) E[g Y X]. Anders gesagt, bei der Berechnung des bedingten Erwartungswertes bezüglich X verhält sich die Funktion g 1 X wieeinekonstante. Beweis. Der Beweis von 1) verläuft ganz anolog zum Beweis von Theorem 3.3, wobei jetzt 4.1) verwendet wird. Setzt man ex) = E[h X, Y ) X = x], so ist der durch X bedingte Erwartungswert von h X, Y ), geschrieben E[h X, Y ) X], die Komposition e π 1 X, Y )=e X. Dies ist eine auf Ω, A, P) definierte Zufallsvariable. Die erste Gleichheit von 1)

10 178 KAPITEL 1: ZUFALLSVEKTOEN zeigt, dass der Erwartungswert dieser Zufallsvariablen auch über dem aum, B 1, P X ) berechnet werden kann: E[ E[h X, Y ) X]]=E[e X] = ex) f X x) dx = E[h X, Y ) X = x] f X x) dx. [ ] = hx, y) f Y X y x) dy f X x) dx = hx, y) f X,Y x, y) dx dy = E[h X, Y )]. ) Sind X und Y unabhängig, so gilt E[g Y X = x] = gy) f Y X y x) dy = gy) f Y y) dy = E[g Y ], gemäss Satz 3. und der Tatsache, dass man E[g Y ]über dem Wahrscheinlichkeitsraum, B 1, P Y ) berechnen kann. Die Grösse ex) =E[g Y X = x] ist also konstant gleich E[g Y ]. Ebenso ist E[g Y X] gleich e Y.Damit istformel)bewiesen. 3) Für jedes x gilt hier E[g X X = x] = gx) f Y y) dy = gx) f Y y) dy = gx), was auch gleich ex) in der obigen Notation ist. Deshalb ist g = e und E[g X X] =e X = g X. 4) Die erste Gleichheit folgt aus 3) mit g X = E[Y X]. Um die zweite Gleichheit zu beweisen, setzt man der Bequemlichkeit halber e x) =E[g Y X = x], so dass E[g Y X] =e X und ex) =E[g 1 X)g Y ) X = x], und somit auch E[g 1 X)g Y ) X] =e X ist. Damit hat man ex) = g 1 x) g y) f Y X y x) dy = g 1 x) g y) f Y X y x)y) dy = g 1 x) E[g Y X = x] =g 1 x)e x), und es ergibt sich e X =g 1 X)e X). Es sei nun A ein Ereignis, dessen Indikatorfunktion I A sich als messbare Funktion h X, Y ) des Paares X, Y ) schreiben lässt. Beispielsweise ist A = {X <Y} ein solches Ereignis, denn man kann schreiben: I {X<Y } = h X, Y ), wobei hx, y) =I {x<y} x, y) ist. Somit kann man die vorangehenden Formeln

11 4. ECHENEGELN 179 speziell für solche Indikatorfunktionen verwenden. Wenn man sich noch vergegenwärtigt, dass PA) =E[I A ] gilt, so findet man also PA) =E[I A ]=E[ E[I A X]]. Definiert man nun noch 4.) P{A X = x} = E[I A X = x], 4.3) P{A X} = E[I A X], so ergibt sich die Gleichheit 4.4) PA) = P{A X = x} f X x) dx. Die Funktion P{A X = x} ist die durch {X = x} bedingte Wahrscheinlichkeit. Die Formel 4.4) wird häufig bei der Berechnung von speziellen Wahrscheinlichkeiten verwendet, wenn man Kenntnis von P{A X = x} hat. Beispiel 1. Es sei X, Y ) ein absolut stetiges Paar von Zufallsvariablen. Wir berechnen zunächst P{X <Y X = x}, wobei die Funktionen hx, y) = I {x<y} x, y) und gy) =I {x<y} y) zum Einsatz kommen. Es ist P{X <Y X = x} = E[I {X<Y } X = x] =E[h X, Y ) X = x] = hx, y) f Y X y x) dy = I {x<y} x, y) f Y X y x) dy = I {x<y} y) f Y X y x) dy = gy) f Y X y x) dy = E[g Y X = x] =E[I {x<y } X = x] =P{x <Y X = x}. Sind die Zufallsvariablen X und Y unabhängig, so gilt f Y X y x)y) =f Y y) und somit P{X <Y X = x} =P{x <Y X = x} = I {x<y} y) f Y X y x) dy = I {x<y} y) f Y y) dy =P{x <Y}. Beispiel. Es seien nun X und Y zwei unabhängige reelle Zufallsvariable, jeweils exponential-verteilt mit Parametern λ und µ. Dann gilt P{X <Y} = λ/λ + µ). Die Dichte von X ist f X x) = λe λx I {x 0}. und gemäss 4.3) und Beispiel 1 erhält man P{X <Y} = P{X <Y X = x} f X x) dx = = P{Y > x X = x} f X x) dx = e µx λe λx dx = λ 0 0 e λ+µ)x dx = P{Y >x} f X x) dx λ λ + µ.

12 180 KAPITEL 1: ZUFALLSVEKTOEN 5. Die zweidimensionale Normalverteilung. Die Normalverteilung N 0, 1) wird in Kapitel 14, 3, untersucht. Für das Folgende benötigen wir lediglich die Tatsache, dass diese Verteilung die Dichte 1/ π)e x / ) X auf der ganzen reellen Geraden hat. Ist also M = 1 ein Paar von unabhängigen, N 0, 1)-verteilten Zufallsvariablen, so ist es gemäss Satz.4 absolut stetig und die zugehörige Dichte ist das Produkt der Dichten von X 1 und von X. In Kapitel 13, 6, werden wir übrigens die erzeugende Funktion eines Paares von Zufallsvariablen studieren. Dabei handelt es sich um die Funktion E[e u 1 X 1 +u X ] mit zwei reellen Argumenten u ) ) 1 und u. Setzt man u u = 1 x und x = 1, so sieht man sofort, dass M eine erzeugende u x Funktion und eine Dichte hat, die durch X 5.1) 5.) g M u )=E[e t u M 1 ]=exp u 1 + u )) 1 =exp t u u ) ; f M x )= 1 π exp 1 x 1 + x )) = 1 π exp 1 t x x ) gegeben sind. Es sei nun A eine ) reelle -Matrix und wir ordnen dem Vektor M X1 das Paar M = mittels der Transformation M = AM zu. Unter X Verwendung der Matrix-Notation, die in diesem Kontext ganz natürlich ist, kann man dann verifizieren: ) ) 0 0 a) M ist zentriert: E[M] =A E[M ]=A = ; 0 0 b) die Kovarianzmatrix E[M E[M]) t M E[M])] von M ist gleich: E[M t M]=AE[M t M ] t A = AI t A = A t A. Satz 5.1. Das Paar M hat die erzeugende Funktion g M u) =E[e t 1 ) ) um ]=exp t ua t u1 5.3) A)u, u =. u Ist A zudem nicht singulär, so hat M eine gemeinsame Dichte f M x) = 1 π exp 1 ) 5.4) t xa t A) 1 x det A 1, x = x1 Beweis. Umg M u) zu berechnen, führt man simultan die Transformationen M = AM und t u = t ua aus. Man sieht, dass t um = t u M, und daher g M u) =E[e t um ]=E[e t u M ]=exp 1 t u u ) =exp 1 t ua t A)u ) gilt. Im Fall von det A 0 kann man sich auf die Formel zur Variablentransformation aus Theorem.1 von Kapitel 15, angewendet auf 5.), berufen. Man x ).

13 5. DIE ZWEIDIMENSIONALE NOMALVETEILUNG 181 verwendet die Transformation G : x x = Ax mit ihrer inversen Transformation H : x x = A 1 x, deren Jacobi-Determinante gerade det A 1 ist. Auf diese Weise erhält man f M x) = 1 π exp 1 ) t x t A 1 ) A 1 x det A 1, und folglich die Formel 5.4), wobei man noch t A 1 ) = t A) 1 t A) 1 A 1 =A t A) 1 zu beachten hat. und Die Matrix A t A, die in 5.3) und 5.4) auftritt, ist die Kovarianzmatrix des Zufallsvektors M = AM. Wir werden sehen, dass sich tatsächlich jede Kovarianzmatrix Γ in der Form A t A schreiben lässt, d.h. dass sie als Kovarianzmatrix eines Zufallsvektors der Form M = AM auftritt. Lemma 5.. Es sei Γ eine -Kovarianzmatrix. Dann existiert eine reelle -Matrix A mit Γ=A t A. Beweis. Gemäss Definition ist Γ eine reelle, symmetrische und positivdefinite Matrix denn es ist t uγu = E[ t um ] 0); sie hat also zwei nichtnegative Eigenwerte λ 1, λ. Daher existiert eine reelle, orthogonale - Matrix S derart, dass ) ) ) S 1 λ1 0 λ1 Γ S = = 0 λ1 0, 0 λ 0 λ 0 λ gilt. Daraus folgt ) ) λ1 0 Γ=S λ1 0 S 1, 0 λ 0 λ ) und somit Γ = A t λ1 0 A, wobei A = S gesetzt wurde. [Man 0 λ beachte S 1 = t S,dennS ist orthogonal.] Wählt man A gemäss Lemma 5., so hat das durch M = AM definierte Paar M eine erzeugende Funktion und eine gemeinsame Dichte, die jeweils durch 5.3) bzw. 5.4) gegeben sind. Offenbar hängt diese Verteilung nur von Γ ab; sie wird mit N 0, Γ) bezeichnet daher folgende Definition. ) σ Definition. Gegeben sei eine Kovarianzmatrix Γ = 1 ρσ 1 σ ρσ 1 σ σ, ) X1 σ 1 > 0, σ > 0, ρ 1). Ein Paar von Zufallsvariablen M = hat eine zentrierte Normalverteilung N 0, Γ), wenn sie die erzeugende Funktion 1 ) 1 5.5) g M u) =exp t uγu =exp σ 1 u 1 +ρσ 1σ u 1 u + σ ) ) u X

14 18 KAPITEL 1: ZUFALLSVEKTOEN hat. Wenn ausserdem det Γ 0d.h. ρ < 1) ist, so hat sie eine gemeinsame Dichte, die durch det Γ 1 f M x) = exp 1 ) t x Γ 1 x π 1 = πσ 1 σ exp 1 x 1 1 ρ 1 ρ ) σ1 ρ x 1 x )) + x 5.6) σ 1 σ σ gegeben ist. Die Verteilung N 0, Γ) heisst ausgeartet oder nicht ausgeartet, je nachdem, ob det Γ = 0 oder 0 ist. Lediglich die nicht ausgearteten Verteilungen haben eine gemeinsame Dichte. Die folgende Aussage ist nur eine Wiederholung. ) X1 Eigenschaft 5.3. Das Paar M = ist zentriert und seine Kovarianzmatrix ist Γ; anders gesagt, die marginalen Zufallsvariablen X 1 und X sind zentriert und ihr linearer Korrelationskoeffizient ist ρ. Die beiden folgenden Eigenschaften lassen sich unmittelbar aus der Gestalt von g M u) ablesen. Eigenschaft 5.4. Die marginalen Zufallsvariablen X 1, X sind normalverteilt, zentriert und haben die Varianzen σ1 bzw. σ. Eigenschaft 5.5. Die marginalen Zufallsvariablen X 1, X sind genau dann unabhängig, wenn sie nicht korreliert sind, d.h. wenn ρ = 0 ist. Im speziellen Fall der zweidimensionalen Normalverteilung sind also die Eigenschaften der Unabhängigkeit und der Nicht-Korreliertheit von X 1, X äquivalent. ) X1 Theorem 5.6. Es sei M = ein Paar mit der Verteilung N 0, Γ) und A eine reelle -Matrix. Dann ist M = AM ein Paar mit der Verteilung N 0, Γ ),wobeiγ = A Γ t A ist. Beweis. Setzt man gleichzeitig M = AM und t u = t u A, so gilt t um = t u M und daher g M u )=E[e t u M ]=E[e t um ]=exp exp t u A Γ t A)u ). 1 X X 1 ) t u Γ u = Korollar 1. Geht man von Γ = I aus, so ist M ein Paar von unabhängigen, N 0, 1)-verteilten Zufallsvariablen. Dies gilt genau dann auch für M = AM,wennA t A = I gilt, d.h. wenn A eine orthogonale Matrix ist. Korollar. Falls das Paar X 1,X ) N 0, Γ)-normalverteilt ist, so X1 ist, X ρ X ) 1 ein Paar von unabhängigen, zentrierten, normalverteilten Zufallsvariablen mit Varianzen 1, bzw.1 ρ σ 1 σ σ 1.

15 5. DIE ZWEIDIMENSIONALE NOMALVETEILUNG 183 Beweis. Definiert man M = AM durch X 1 = X 1 ; σ 1 X = X ρ X also A = 1 ; σ σ 1 ) 1 0 so gilt Γ = A Γ t A = 0 1 ρ. 1 σ 1 0 ρ σ 1 1 σ Bemerkung über die ausgearteten Verteilungen. Wir betrachten jetzt die Verteilung N 0, Γ) mit det Γ = 0, d.h. es ist ρ = ±1. Hier gibt es keine gemeinsame Dichte, aber die erzeugende Funktion existiert und man erhält sie, indem man in 5.5) ρ = ±1 setzt. Dann ist 5.7) g M u) =exp 1 σ 1u 1 ± σ u ) ). Das ist also die erzeugende Funktion eines Paares X 1,X ), wobei X 1 = σ 1 U und X = ±σ U mit einer N 0, 1)-verteilten Zufallsvariablen U ist. Eine ausgeartete N 0, Γ)-verteilte Zufallsvariable hat also als Träger eine Gerade mit der Steigung ±σ /σ 1, die durch den Ursprung geht. ) µ1 Bemerkung über nicht-zentrierte Verteilungen. Es sei µ = µ 1,µ ) ein Punkt der Ebene und M sei ein Paar mit der Verteilung N 0, Γ). Man bezeichnet die Verteilung von M = M + µ mit N µ, Γ) und nennt sie zweidimensionale Normalverteilung mit Mittelpunkt µ und Kovarianzmatrix Γ. Ihre erzeugende Funktion ist gu) =exp t uµ + 1 ) 5.8) t uγu =exp u 1 µ 1 + u µ + 1 σ 1 u 1 +ρσ 1σ u 1 u + σ ) ) u., Falls ρ < 1 ist, hat diese Verteilung eine gemeinsame Dichte, die durch det Γ 1 f M x) = exp 1 ) 5.9) t x µ)γ 1 x µ) π 1 = πσ 1 σ exp 1 x1 µ ) 1 1 ρ 1 ρ ) σ 1 x1 µ 1 ρ X1 ) x µ ) σ 1 σ + x µ σ ) )) ) gegeben ) ist. Ist also M = gemäss N µ, Γ) verteilt, so ist das Paar U X,mitU =X 1 µ 1 )/σ 1, V =X µ )/σ,gemäss N 0,γ) verteilt V ) 1 ρ mit γ =. ρ 1 µ

16 184 KAPITEL 1: ZUFALLSVEKTOEN Das folgende Theorem ist in zweifacher Hinsicht interessant: zum einen beschreibt es eine alternative Methode, um die zweidimensionale Normalverteilung einzuführen, andererseits motiviert es, wie man eine Normalverteilung auf allgemeineren äumen, ) wie z.b. Banachräumen, definiert. X1 Theorem 5.7. Es sei M = ein zentrierter Zufallsvektor. Dann X sind die beiden folgenden Aussagen äquivalent: a) M hat eine zweidimensionale Normalverteilung. b) Jede Linearkombination von X 1 und X hat eine zentrierte eindimensionale Normalverteilung. ) Beweis. EsseiL u = t u1 um, u =, eine Linearkombination von u X 1, X mit reellen Koeffizienten. a) b). Wir nehmen LM) =N 0, Γ) an. Dann ist die erzeugende Funktion von L u für v durch gv) =E[e vl u ]=E[e t vu)m ]=exp 1 t uγu)v ) gegeben. Dies zeigt im Vorgriff auf Kapitel 14, 3. c), dass L u eine zentrierte, normalverteilte Zufallsvariable mit Varianz t uγu ist. b) a). Nach Voraussetzung ist die Zufallsvariable L u für jede Wahl von u in zentriert und eindimensional normalverteilt. Sie hat also eine erzeugende Funktion, die für reelles v durch gv) =E[e vl u ]=e Qu)v /) gegeben ist, wobei Qu) = VarL u = Var t um) = E[ t um) ] = E[ t um) t um)] gilt. Wegen t um = t Mufolgt Qu) = t u E[M t M] u = t u Γ u, wobeiγdie Kovarianzmatrix von M ist. Wählt man v =1,soerhält man g1) = E[e L u ]=E[e t um ]=e 1/) t uγu als Ausdruck für die erzeugende Funktion von M. Somit erweist sich M als N 0, Γ)-normalverteilt. Da die verwendete Notation auf der Matrix-Schreibweise beruht, bedarf es nur geringer Modifikationen, um ebenso n-dimensionale normalverteilte Zufallsvektoren M für n zu behandeln. Speziell gilt, dass die Dichte von M durch die Formel 5.9) gegeben ist, falls Kovarianzmatrix Γ regulär ist.manhatnurnochπ durch π) n/ im Nenner des Bruches zu ersetzen.

17 EGÄNZUNGEN UND ÜBUNGEN 185 EGÄNZUNGEN UND ÜBUNGEN 1. Alternative Behandlung von bedingten Verteilungen X. Fernique). Diese Methode erlaubt es, gleichzeitig den Fall der diskreten Zufallsvariablen und den der absolut stetigen Zufallsvariablen zu behandeln. Betrachten wir also ein Paar X, Y ) von reellen Zufallsvariablen, die auf einem aum Ω, A, P) definiert sind. Mit µ bzw. P X bzw. P Y seien die Verteilung des Paares bzw. die von X bzw. die von Y bezeichnet. Es sei nun Q y A)) y, A B 1 ) eine mit Paaren y, A) B 1 indizierte Familie von reellen Zahlen. Man sagt, dass diese Familie eine bedingte Verteilung von X relativ zu Y ist, falls die folgenden Eigenschaften gelten: 1) für jede reelle Zahl y ist die Abbildung Q y : A Q y A) eine Wahrscheinlichkeitsverteilung auf, also speziell eine Abbildung von B 1 in [0, 1]; ) für jede Borel-Menge A B 1 ist die Abbildung Q ) A) :y Q y A) messbar, also speziell eine Abbildung von, B 1 )in, B 1 ); 3) für jedes Paar A, B von Borel-Mengen gilt die Gleichheit P{X A, Y B} = E[Q ) A) I {Y B} ]. Man beachte, dass Q ) A) eineauf, B 1 ) definierte reelle Zufallsvariable ist, die wegen 0 Q y A) 1für alle y) beschränkt ist. Das Produkt Q ) A) I {Y B} ist also integrierbar. Der Erwartungswert E in der obigen Identität ist bezüglich der Verteilung P Y von Y zu nehmen. a) Man zeige, dass man die Identität 3) auch folgendermassen schreiben kann: ) dµx, y) = dq y x) dp Y y). x A, y B y B b) Es sei nun Y eine diskrete Zufallsvariable mit der Verteilung P Y = P{Y = y j } ε yj,wobeij endlich oder abzählbar ist. Dabei sollen die y j j J paarweise verschieden und die Wahrscheinlichkeiten P{Y = y j } alle positiv sein. Ist dann Q 0 irgendeine Wahrscheinlichkeitsverteilung auf, B 1 ), so definieren wir { Q0, falls y y Q y ) = j für alle j; P{X Y = y j }, falls y = y j. x A Speziell für y = y j und jede Borel-Menge A setzt man also Q y A) =P{X A Y = y j }. Man zeige, dass die Funktion Q ) den Bedingungen 1), ) und 3) genügt.

18 186 KAPITEL 1: ZUFALLSVEKTOEN c) Sei nun X, Y ) ein absolut stetiges Paar. Wir verwenden die Bezeichnungen aus den Abschnitten 3 und 4. Für jedes reelle y sei Q y die Wahrscheinlichkeitsverteilung mit der Dichte f X Y x y)auf. Man verifiziere auch hier die drei Bedingungen 1), ) und 3).. Es sei X, Y ) ein Paar von Zufallsvariablen mit gemeinsamer Dichte { e fx, y) = x+y), falls x, y 0; 0, sonst. a) Man berechne die marginalen Dichten X, Y. b) Sind die Variablen X und Y unabhängig? 3. Die gleichen Fragen wie in ), aber nun für ein Paar X, Y )mit gemeinsamer Dichte { e fx, y) = x+y), falls 0 x y; 0, sonst. 4. Es sei X, Y ) eine Paar von Zufallsvariablen mit gemeinsamer Dichte fx, y). Man zeige, dass X und Y genau dann unabhängig sind, falls sich f in ein Produkt fx, y) = gx) hy) faktorisieren lässt, wobei die eine Funktion nur von x und die andere Funktion nur von y abhängt. 5. Es sei D = {x, y) : x + y r } die Kreisscheibe mit Zentrum 0 und adius r>0. Mit X, Y ) wird ein zufälliger Punkt von D bezeichnet, wobei die gemeinsame Verteilung die Gleichverteilung auf D sein soll, d.h. die Dichte ist durch { 1 fx, y) =, πr falls x, y) D; 0, sonst, gegeben. a) Man berechne die marginalen Dichten von X und Y. Man berechne E[X] und E[Y ]. b) Sind die Variablen X und Y unabhängig? c) Man berechne CovX, Y ). Was kann man aus b) und c) folgern? d) Man berechne die Verteilungsfunktion Gu) und dann auch die Dichte gu) der Zufallsvariablen U = X + Y. e) Man berechne E[U] und ermittle daraus E[X ] und E[Y ], sowie Var X und Var Y. f) Man berechne die durch {X = x} bedingte Dichte f Y X x) vony. Man berechne E[Y X = x], dann auch E[X + Y X = x] und E[X + Y X].

19 EGÄNZUNGEN UND ÜBUNGEN 187 g) Ein Schütze zielt auf eine Zielscheibe, die, wie D, kreisrund ist. Die Verteilung des Einschlagspunktes X, Y ) auf der Scheibe sei die Gleichverteilung auf D. Dem Punkt X, Y ) wird die Zufallsvariable L = X + Y zugeordnet, die gerade die Distanz von X, Y ) zum Zentrum der Scheibe angibt. Wird nun n-mal unabhängig geschossen, so entspricht dem eine Menge von n unabhängig und zufällig gewählten Punkten, damit aber auch ein System von n Zufallsvariablen L 1,..., L n ), die die Abstände dieser Punkte vom Zentrum darstellen. Dabei handelt es sich um unabhängige und identisch verteilte Zufallsvariable. Man berechne P{minL 1,...,L n ) <a} für reelles a mit 0 <a<r.wie ist diese Wahrscheinlichkeit zu interpretieren? ) X1 6. Es sei M ) = ein Zufallsvektor mit der Verteilung N X 0, Γ), 1 ρ wobei Γ = und ρ < 1 ist. Man zeige: ρ 1 a) Die durch {X 1 = x 1 } bedingte Verteilung von X ist N ρx 1, 1 ρ ). Daraus folgt: α) E[X X 1 = x 1 ]=ρx 1, d.h. der bedingte Erwartungswert ist linear in x 1 ; anders formuliert, die egressionskurve von X in X 1 ist eine Gerade durch den Ursprung mit Steigung ρ. β) VarX X 1 = x 1 )=1 ρ ; dies ist unabhängig von x 1. b) X 1,X E[X X 1 ]) ist ein Paar von unabhängigen, zentrierten und normalverteilten Zufallsvariablen mit Varianzen 1 bzw. 1 ρ. 7. Es sei X 1,X ) ein Paar von Zufallsvariablen, deren marginale Verteilungen die Normalverteilungen N 0, 1) sind. Dann muss X 1,X )nicht notwendig normalverteilt sein. Man überlege sich ein Beispiel. 8. Es sei M = X, Y ) ein absolut stetiger Zufallsvektor mit dem Träger, wobei die Komponenten X und Y unabhängig sein sollen. Man zeige, dass die beiden folgenden Aussagen äquivalent sind: a) X und Y haben beide eine zentrierte Verteilung; b) die Verteilung von M ist isotrop, d.h. sie ist invariant unter jeder Drehung um den Ursprung. 9. Es wird zunächst ein perfekter Würfel geworfen. Anschliessend wird eine perfekte Münze so oft geworfen, wie die Augenzahl des Würfels ergeben hat. Es bezeichne X die Augenzahl des Würfels und Y die Anzahl der Vorkommen von Zahl beim Münzwurf. a) Man berechne die gemeinsame Verteilung von X, Y ). b) Man berechne E[Y ].

20 188 KAPITEL 1: ZUFALLSVEKTOEN 10. Berechnung des Erwartungswertes einer geometrischen Zufallsvariablen). Eine Urne enthalte r weisse und s schwarze Kugeln, r, s 1); es sei p = r/r + s). Man führt eine Folge von Ziehungen mit Zurücklegen durch und bezeichnet mit N die Anzahl der Ziehungen, die notwendig sind, um erstmals eine weisse Kugel zu ziehen N ist also eine geometrisch verteilte Zufallsvariable). Nun sei X diejenige Zufallsvariable, die den Wert 1 oder 0 annimmt, je nachdem ob die erste gezogene Kugel weiss ist oder nicht. Man berechne den Erwartungswert von N mittels der Formeln für den bedingten Erwartungswert, wenn man die Variable N als durch X bedingte Variable betrachtet. 11. Fortsetzung von Aufgabe 10). Wiederum sei eine Urne mit r weissen und s schwarzen Kugeln gegeben r, s 1). Nun wird eine Folge von Ziehungen ohne Zurücklegen durchgeführt und es bezeichne N r,s die Anzahl der Ziehungen, die notwendig sind, um erstmals eine weisse Kugel zu ziehen. Um E[N r,s ] zu berechnen, kann man folgendermassen vorgehen. Es sei X die Zufallsvariable, die den Wert 1 oder 0 annimmt, je nachdem, ob die erste gezogene Kugel weiss ist oder nicht. Man berechne E[N r,s ] mittels der Formel E[N r,s ]=E[E[N r,s X]]. a) Man zeige, dass die Zahlen a r,s = E[N r,s ] einer ekursion genügen: a r,s =1+s/r + s))a r,s 1 für r, s 1 und a r,0 =1für alle r 1. b) Man zeige, dass dieses System genau eine Lösung hat, die durch a r,s = E[N r,s ]=r + s +1)/r + 1) gegeben ist. 1. Es sei X, Y ) ein Paar von Zufallsvariablen mit Werten in N, wobei stets 0 Y X gilt und E[X] < + ist. Man nimmt an, dass die durch X bedingte Verteilung von Y die Gleichverteilung auf {0, 1,..., X} ist. 1) Man berechne E[X] als Funktion von E[Y ]. ) Man zeige, dass die beiden folgenden Aussagen äquivalent sind: a) das Paar X Y,Y ) ist unabhängig; b) die Zufallsvariable Y ist geometrisch verteilt, d.h. P{Y = n} = q n p n 0). 13. Stefanie und die Arbeitslosenversicherung). Es sei X die Zeit, die verstreicht, bis ein Individuum einer Population arbeitslos wird. Dabei wird angenommen, dass X exponential-verteilt mit Parameter λ ist cf. Kap. 14, 5). Die Versicherungsgesellschaft, die diese Population gegen Arbeitslosigkeit versichert, möchte die mittlere Arbeitszeit für die Unter- Population berechnen, die aus denjenigen Individuen besteht, die zwischen Zeitpunkt a und Zeitpunkt b arbeitslos sind 0 <a<b<+ ).

21 EGÄNZUNGEN UND ÜBUNGEN 189 a) Es sei ga, b) diese mittlere Zeit. Wie muss man ga, b) berechnen? b) Man berechne den Limes von ga, b), wenn b gegen Unendlich strebt. Hätte man sich dieses esultat auch ohne echnen überlegen können? c) Man berechne den Limes von ga, a + ε), falls ε von rechts gegen 0 strebt.

22 190 KAPITEL 1: ZUFALLSVEKTOEN

23

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

ERWARTUNGSWERT. ABSOLUT STETIGE VERTEILUNGEN

ERWARTUNGSWERT. ABSOLUT STETIGE VERTEILUNGEN KAPITEL 11 EWATUNGSWET. ABSOLUT STETIGE VETEILUNGEN In diesem Kapitel werden wir den Begriff des Erwartungswertes einer reellen Zufallsvariablen bezüglich eines beliebigen Wahrscheinlichkeitsmasses definieren

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Lösungen zu Übungsblatt 9

Lösungen zu Übungsblatt 9 Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Multivariate Zufallsvariablen

Multivariate Zufallsvariablen Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1 24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Analyis I -Metrische Räume - eine Einführung in die Topologie

Analyis I -Metrische Räume - eine Einführung in die Topologie Analyis I -Metrische Räume - eine Einführung in die Topologie E = E isolierter Punkte x 1 x 2 x 3 E ist abgeschlossen U ɛ (x) x innerer Punkt Ω Häufungspunkte Ω Metrik Metrische Räume Definition Sei X

Mehr

Eindimensionale Zufallsvariablen

Eindimensionale Zufallsvariablen Eindimensionale Grundbegriffe Verteilungstypen Diskrete Stetige Spezielle Maßzahlen für eindimensionale Erwartungswert Varianz Standardabweichung Schwankungsintervalle Bibliografie Bleymüller / Gehlert

Mehr

Stochastik für Wirtschaftswissenschaftler

Stochastik für Wirtschaftswissenschaftler Stochastik für Wirtschaftswissenschaftler Hartmut Lanzinger Wintersemester 0/ Inhaltsverzeichnis Wahrscheinlichkeiten Einführung.......................................... Laplacesche Wahrscheinlichkeitsräume...........................

Mehr

2 Zufallsvariablen und deren Verteilungen

2 Zufallsvariablen und deren Verteilungen 2 Zufallsvariablen und deren Verteilungen 2.1 Zufallsvariablen Zufallsvariablen sind Funktionen von Ω in die reellen Zahlen R. Beispiel 2.1.1 (Zweimaliger Münzwurf). Ω = ZZ, KK, KZ, ZK}. Sei X(ω) die Anzahl

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr