18 Bedingte Verteilung In diesem Kapitel wollen wir uns mit der Verteilung (Verteilungsdichte, Verteilungsfunktion, Erwartungswert) einer Zufallsvariablen Z befassen, wenn man über die zusätzliche Information "das Ereignis W' ist bereits eingetreten" verfügt. Wir werden diesen Begriff - es handelt sich dabei um die bedingte Verteilung - genau definieren, seine wichtigsten Eigenschaften kennen lernen und anschließend an Hand von Beispielen zeigen, wie damit gearbeitet wird. Wir befassen uns dabei sowohl mit dem Fall, in dem das Ereignis W' eine positive Wahrscheinlichkeit besitzt, als auch mit dem Fall, in dem das Ereignis W' die Form 8Y = y< besitzt, wobei Y eine stetige Zufallsvariable ist und dieses Ereignis somit die Wahrscheinlichkeit 0 besitzt. 18.1 Die bedingte Verteilung (der diskrete Fall) Sei ein W-Maß auf dem Ereignisraum W, sei Z :WØ eine Zufallsvariable und sei W'ŒW ein Ereignis mit der Eigenschaft @W'D>0. 18.1.1 Definition: Unter der bedingten Verteilung der Zufallsvariablen Z unter W' versteht man eine Abbildung Z W', welche jeder Menge BŒ die Wahrscheinlichkeit Z W' @BD= @8Z œ B< W'D zuordnet. Die Zahl Z W' @BD gibt somit an, mit welcher Wahrscheinlichkeit durch den Mechanismus Z ein Wert aus der Menge B erzeugt wird, wenn bekannt ist, dass das Ereignis W' bereits eingetreten ist. Wie die Verteilung Z ist auch die bedingte Verteilung Z W' ein W-Maß auf. Wie bei Verteilungen arbeitet man auch bei bedingten Verteilungen wieder mit Verteilungsdichten bzw mit Verteilungsfunktionen. Wir definieren in diesem Zusammenhang: 18.1.2 Definition: Unter der bedingten Verteilungsdichte Z W' der Zufallsvariablen Z unter W' versteht man die Verteilungsdichte der bedingten Verteilung Z W' von Z unter W'. Ist Z diskret, so handelt es sich dabei um die Abbildung Z W' : Ø mit Z W' @zd=; @8Z = z< W'D für zœ Z Ist Z stetig, so handelt es sich dabei um die Abbildung Z W' : Ø mit Z W' @zd z= @8Z œ@z, z+ zd< W'D Wegen Bemerkung 13.1.1 bzw Bemerkung 14.4.1 ist die bedingte Verteilung Z W' einer Zufallsvariablen Z durch ihre bedingte Verteilungsdichte Z W' bereits vollständig bestimmt. 18.1.3 Definition: Unter der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z unter W' versteht man die Verteilungsfunktion der bedingten Verteilung Z W' von Z unter W', also die Abbildung Z W' : Ø@0, 1D mit Z W' @zd= @8Z z< W'D Wegen Bemerkung 15.1.3 ist die bedingte Verteilung Z W' einer Zufallsvariablen Z durch ihre bedingte Verteilungsfunktion Z W' bereits vollständig bestimmt. Mit der bedingten Verteilungsdichte Z W' bzw der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z unter W' arbeitet man genau so wie mit gewöhnlichen Verteilungsdichten bzw gewöhnlichen Verteilungsfunktionen. Beispielweise lässt sich damit der bedingte Erwartungswert @Z W'D der Zufallsvariablen Z unter W' definieren:
88 18_Bedingte_Verteilung.nb 18.1.4 Definition: Unter dem bedingten Erwartungswert @Z W'D einer integrierbaren Zufallsvariablen Z unter W' versteht man (je nachdem, ob die Zufallsvariable Z diskret bzw stetig ist) die Zahl @Z W'D= zœ Z z Z W' @zd bzw @Z W'D=Ÿ - z Z W' @zd z Der bedingte Erwartungswert besitzt ebenfalls die vom gewöhnlichen Erwartungswert bekannten Eigenschaften: 18.1.5 Bemerkung: Sind X, Y und Z beliebige Zufallsvariable, so gilt a) Linearität: Sind X und Y integrierbar und sind a, bœ, so gilt @a X + b Y W'D=a @X W'D+ b @Y W'D b) Monotonie: Sind X und Y integrierbar und ist X Y, so gilt @X W'D @Y W'D c) Hintereinanderausführung: Ist g : Ø eine Abbildung und ist die Zufallsvariable gëz integrierbar, so gilt (je nachdem, ob die Zufallsvariable Z diskret bzw stetig ist) @gëz W'D= zœ Z g@zd Z W' @zd bzw @gëz W'D=Ÿ - g@zd Z W' @zd z Von großer Bedeutung für das praktische Rechnen ist wieder der Satz von der totalen Wahrscheinlichkeit: 18.1.6 Satz von der totalen Wahrscheinlichkeit: Ist Z :WØ eine Zufallsvariable und bilden die Ereignisse B 1, B 2,, B n ŒW ein vollständiges Ereignissystem, so gilt n Z = Z Bi @B i D i=1 und damit n n n Z = Z Bi @B i D bzw Z = Z Bi @B i D bzw @ZD= @Z Bi D @B i D i=1 i=1 i=1 wobei bei der letzten Formel natürlich die Integrierbarkeit der Zufallsvariablen Z vorausgesetzt wird. 18.1.7 Bemerkung: Sind Y :WØ und Z :WØ diskrete Zufallsvariable, so gilt Z 8Y=y< @zd= Y,Z@y, zd Y @yd Es folgen wieder einige Beispiele: 18.1.8 Beispiel: Die diskrete Zufallsvariablen X und Y besitzen gemeinsameverteilungstabelle: Y\X 2 5 8 0.4 0.15 0.30 0.35 0.8 0.05 0.12 0.03 i) Bestimmen Sie die Verteilungsdichte X HxL und Y HyL; ii) Bestimen Sie die bedingte Verteilungsdichte X 8Y=0.4< HxL und Y 8X=8< HyL. iii) Bestimmen Sie die Erwartungswerte [X 8Y = 0.4<] und [Y 8X = 8<]. Lösung: il
18_Bedingte_Verteilung.nb 89 X HxL= xœ X p xy ï X 2 5 8 X HxL 0.20 0.42 0.38 Y HyL= yœ Y p xy ï Y 0.4 0.8 Y HyL 0.80 0.20 iil X 8Y=0.4< HxL= XYHx, yl ï Y HyL X 2 5 8 X 8Y=0.4< HxL 0.1875 0.375 0.4375 p x y=0.4 = 1 xœ X Y 8X=8< HyL= XYHx, yl ï X HxL Y 0.4 0.8 Y 8X=8< HxL 0.9211 0.0789 p y x=8 = 1 yœ Y iiil @X 8Y=0.4<D= xœ X x ÿ p x y=0.4 = 2ÿ0.1875+ 5ÿ0.375+ 8ÿ0.4375=5.75 @Y 8X=8<D= yœ Y y ÿ p y x=8 = 0.4ÿ0.9211+ 0.8ÿ0.0789=0.431 2 0.1875+5 0.375+8 0.4375 0.4 0.9211+0.8 0.0789 5.75 0.43156 18.1.9 Beispiel (Ruinproblem): Ein Spieler nimmt an einem Glücksspiel teil, bei dem er unabhängig vom Kapital, über das er gerade verfügt, mit der Wahrscheinlichkeit 1 ê2 einen Euro gewinnen bzw verlieren kann. Unser Spieler spielt so lange, bis er entweder sein Anfangskapital von a Euro verloren hat oder aber den Zielbetrag von b (mit b> a) Euro gewonnen hat. Wie lange wird dieser Spieler im Mittel spielen? Lösung: Es bezeichne Z die Anzahl der Spiele unseres Spielers und X das Kapital, über das der Spieler im Moment verfügt. Außerdem bezeichne B 1 das Ereignis "der Spieler gewinnt das nächste Spiel" und B 2 das Ereignis "der Spieler verliert das nächste Spiel". Für alle nœ und alle kœ81, 2, b- 1< gilt dann @8Z = n< 8X = k<d= @8Z = n< B 1 8X = k<d+ @8Z = n< B 2 8X = k<d=
90 18_Bedingte_Verteilung.nb = @8Z = n< 8X = k< B 1 D @B 1 8X = k<d+ @8Z = n< 8X = k< B 2 D @B 2 8X = k<d Vergleicht man die beiden Situationen vor und nach dem nächsten Spiel (falls der Spieler derzeit über k Euro verfügt, das nächste Spiel gewinnen wird und insgesamt noch n Spiele bis zur Entscheidung bestreiten muss, so entspricht diese Situation offenbar jener Situation, in der der Spieler derzeit über k + 1 Euro verfügt und bis zur Entscheidung noch n-1 Spiele bestreiten muss) und berücksichtigt man die Tatsache, dass @B 1 8X = k<d=1ê2 und @B 2 8X = k<d=1ê2 gilt, so ergibt sich weiter @8Z = n< 8X = k<d= = @8Z = n-1< 8X = k+ 1<Dê2+ @8Z = n-1< 8X = k- 1<Dê2 Unter Verwendung der Substitution m := n-1 erhalten wir somit @Z 8X = k<d= n @8Z = n< 8X = k<d= n=1 = 1 2 1 n @8Z = n- 1< 8X = k+ 1<D+ n=1 2 n @8Z = n-1< 8X = k- 1<D n=1 = 1 2 1 Hm+1L @8Z = m< 8X = k+ 1<D+ m=0 2 Hm+1L @8Z = m< 8X = k- 1<D= m=0 = 1+ 1 2 @Z 8X = k+ 1<D+ 1 2 @Z 8X = k- 1<D also @Z 8X = k+ 1<D=2 @Z 8X = k<d- @Z 8X = k- 1<D-2 Berücksichtigt man die Tatsache, dass @Z 8X = 0<D=0 gilt, so ergibt sich aus dieser rekursiven Beziehung nach kurzer Umformung @Z 8X = k<d=kh @Z 8X = 1<D- k+ 1L Berücksichtigt man noch, dass @Z 8X = b<d=0 gilt, so folgt daraus unmittelbar die gesuchte Lösung @Z 8X = a<d=ahb-al 18.2 Die bedingte Verteilung (der stetige Fall) Bisher haben wir die bedingte Wahrscheinlichkeit @A W'D eines Ereignisses A sowie die bedingte Verteilung Z W', die bedingte Verteilungsdichte Z W', die bedingte Verteilungsfunktion Z W' und den bedingten Erwartungswert @X W'D einer Zufallsvariablen Z nur im Fall @W'D> 0 erklärt. Oft benötigt man die bedingte Wahrscheinlichkeit eines Ereignisses A sowie die bedingte Verteilung, die bedingte Verteilungsdichte, die bedingte Verteilungsfunktion und den bedingten Erwartungswert einer Zufallsvariablen Z jedoch auch unter der Bedingung 8Y = y<, wobei Y eine stetige Zufallsvariablen ist und damit @8Y = y<d=0 gilt. Im Rahmen der Wahrscheinlichkeitstheorie wurde für die Behandlung der damit zusammenhängenden Fragen eine eigene, sehr tiefliegende Theorie entwickelt (es handelt sich dabei um die sogenannte RADON-NIKODYM- Ableitung von Maßen). Für unsere Zwecke ist die folgende Merkregel (differenzielle Denkweise) aber völlig ausreichend: 18.2.1 Merkregel: Sei ein W-Maß auf dem Ereignisraum W, sei AŒW ein Ereignis, Z :WØ eine beliebige (integrierbare) und Y :WØ eine stetige Zufallsvariable. Interpretiert man @A 8Y = y<d als @A 8Y œ@y, y+ yd<d Z 8Y=y< als Z 8Yœ@y,y+ yd<
18_Bedingte_Verteilung.nb 91 Z 8Y=y< als Z 8Yœ@y,y+ yd< Z 8Y=y< als Z 8Yœ@y,y+ yd< @Z 8Y = y<d als @Z 8Y œ@y, y+ yd<d so führt dies zusammen mit einer differenziellen Interpretation unserer bisherigen Begriffe und Sätze (vor allem des Satzes von der totalen Wahrscheinlichkeit) stets zu richtigen Aussagen. Man muss dabei allerdings berücksichtigen, dass die beiden Abbildungen @A 8Y = <D : Ø bzw @Z 8Y = <D : Ø nur bis auf eine Y -Nullfunktion eindeutig bestimmt sind (unter einer Y -Nullfunktion versteht man dabei eine Abbildung f : Ø mit der Eigenschaft Y @8 f = 0<D=1). Aussagen über @A 8Y = y<d bzw @X 8Y = y<d gelten somit nur für " Y -fast alle" yœ. Wir wollen diese Vorgangsweise an einigen wichtigen Formeln erläutern: 18.2.2 Bemerkung: Ist Z :WØ eine integrierbare und Y :WØ eine stetige Zufallsvariable, so gilt @ @Z 8Y =ä<dëyd= @ZD Beweis: Aus Satz 16.1.4 zusammen mit dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die Ereignisse 8Y œ@ y, y + yd< bilden ein "infinitesimales" vollständiges Ereignissystem) folgt unmittelbar @ @Z 8Y =ä<dëyd=ÿ - @Z 8Y = y<d @8Y œ@y, y+ yd<d= @ZD 18.2.3 Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable, so gilt Z 8Y=y< @zd= Y,Z@y, zd Y @yd Beweis: Wir verwenden die Definition der bedingten Wahrscheinlichkeit in differenzieller Form und erhalten Z 8Y=y< @zd= @8Z œ@z, z+ zd< 8Y œ@y, y+ yd<d z = = @8Z œ@z, z+ zd< 8Y œ@y, y+ yd<d y z y @8Y œ@y, y+ yd<d = Y,Z@y, zd Y @yd 18.2.4 Bemerkung (Einsetzen einer Bedingung): Sind Y :WØ und Z :WØ stetige Zufallsvariable und ist g : µ Ø eine Abbildung mit der Eigenschaft, dass die Zufallsvariable g@y, ZD integrierbar ist, so gilt @g@y, ZD 8Y = y'<d= @g@y', ZD 8Y = y'<d Beweis: Wir verwenden Satz 16.1.4 sowie die aus der differenziellen Interpretation der bedingten Wahrscheinlichkeit folgende Formel
92 18_Bedingte_Verteilung.nb und erhalten @A 8Y = y'<d für y= y' @A 8Y œ@y, y+ yd< 8Y = y'<d=: @g@y, ZD 8Y = y'<d=ÿ - Ÿ- g@y, zd @8Y œ@y, y+ yd< 8Z œ@z, z+ zd< 8Y = y'<d= =Ÿ - g@y', zd @8Z œ@z, z+ zd< 8Y = y'<d= @g@y', ZD 8Y = y'<d
18_Bedingte_Verteilung.nb 93 18.2.5 Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable, so gilt für alle zœ Y+Z @zd=ÿ - Z 8Y=y< @z- yd Y @yd y Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel über das Einsetzen einer Bedingung ergibt sich Y+Z @zd z= @8Y + Z œ@z, z+ zd<d= =Ÿ - @8Y + Z œ@z, z+ zd< 8Y = y<d @8Y œ@y, y+ yd<d= =Ÿ - @8Z œ@z- y, z- y+ zd< 8Y = y<d @8Y œ@y, y+ yd<d= =Ÿ - Z 8Y=y< @z- yd z Y @yd y 18.2.6 Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable und ist Y positiv, so gilt ZêY @zd=ÿ 0 Z 8Y=y< @y zd y Y @yd y Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel über das Einsetzen einer Bedingung ergibt sich wieder (man beachte dabei, dass das Intervall @y z, y z+ y zd die Länge y z besitzt) ZêY @zd z= @8ZêY œ@z, z+ zd<d= =Ÿ 0 @8ZêY œ@z, z+ zd< 8Y = y<d @8Y œ@y, y+ yd<d= =Ÿ 0 @8Z œ@y z, y z+ y zd< 8Y = y<d @8Y œ@y, y+ yd<d= =Ÿ 0 Z 8Y=y< @y zd y z Y @yd y Es folgen wieder einige Beispiele: 18.2.7 Beispiel: Gegeben sei die gemeinsame Verteilungsdichte 4Hx y+ x+ ylê5 für 0 x 1und 0 y 1 X,Y @x, yd=: der beiden stetigen Zufallsvariablen X und Y. Man bestimme die bedingte Verteilungsdichte X 8Y=y< sowie den bedingten Erwartungswert @X 8Y = y<d von X unter der Bedingung 8Y = y<. Lösung: Wir geben zunächst die Funktion X,Y Mathematica-gerecht ein: fxy@x_, y_d := Piecewise@884Hx y+x+ylê5, And@0 x 1, 0 y 1D<<D Wegen Integrate@fXY@x, yd, 8x, -, <, 8y, -, <D 1 handelt es sich bei der (offensichtlich nicht negativen) Abbildung X,Y tatsächlich um eine gemeinsame Verteilungsdichte von stetigen Zufallsvariablen. Für die Verteilungsdichte Y von Y, sowie die bedingte Verteilungsdichte
94 18_Bedingte_Verteilung.nb Y X 8Y=y< und den bedingten Erwartungswert @X 8Y = y<d von X unter der Bedingung 8Y = y< ergibt sich wegen Bemerkung 17.3.4, Bemerkung 18.2.3 sowie Definition 18.1.4 zusammen mit unserer Merkregel für alle 0 y 1 fy@y_d := Integrate@fXY@x, yd, 8x, -, <D fxuntery@x_, y_d := Piecewise@88fXY@x, ydêfy@yd, And@0 x 1, 0 y 1D<<D EXunterY@y_D := Integrate@x fxuntery@x, yd, 8x, -, <D fy@yd fxuntery@x, yd êê Simplify EXunterY@yD 2 H1 + 3 yl 0 y 1 5 2 Hx+y+x yl 1+3 y 0 x 1 && 0 y 1 2+5 y 3 H1+3 yl 0 y 1 also Y @yd=ÿ - X Y @x, yd x= 2H1+3 yl für 0 y 1 5 sowie für alle 0 y 1 und X 8Y=y< @xd= X Y@x, yd Y @yd = 2Hx+ y+x yl für 0 x 1 3 y+1 @X 8Y = y<d=ÿ - x X 8Y=y< @xd x= 5 y+2 9 y+3 Clear@fXY, fy, fxuntery, EXunterYD 18.2.8 Beispiel: Ein Punkt wird zufällig in den ersten Quadrant des Einheitskreises geworfen. Seine zufälligen Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung von Y unter der Bedingung 8X = x<. Lösung: Bei der gemeinsamen Verteilung X,Y der beiden Zufallsvariablen X und Y handelt es sich offenbar um die Gleichverteilung auf dem ersten Quadrant des Einheitskreises, also X,Y @x, yd=; 4êp für x, y 0und x2 + y 2 1 Wegen Bemerkung 17.3.4 gilt damit (man veranschauliche sich den Sachverhalt an einer Skizze) X @xd=ÿ - X,Y @x, yd y= 4 1-x2 êp für 0 x 1 was wegen Bemerkung 18.2.3 für alle 0 x 1
18_Bedingte_Verteilung.nb 95 Y 8X=x< @yd= X,Y@x, yd X @xd = 1ê 1-x2 für 0 y 1- x2 zur Folge hat. Bei der bedingten Verteilung von Y unter der Bedingung 8X = x< handelt es sich also um die Gleichverteilung auf dem Intervall @0, 1- x 2 D. 18.2.9 Beispiel: Sei X,Y (x,y)#: 4 x y für 0 x 1, -x y x i) Bestimmen Sie 8X 8Y=y<< HxL. Für welche yœ ist diese Vertilungsdichte überhaupt definiert und warum? ii) Bestimmen Sie [X {Y=y}]. Lösung: Vgl. Beispiel 17.3.6 X,Y (x,y)#: 4 x y für 0 x 1, -x y x X HxL=Ÿ - XY Hx, yl x y=ÿ -x 4 x y y=8 x Ÿ 0 4 x y y=4x 3 für xœ[0,1], ; Y HyL=Ÿ - XY Hx, yl x=ÿ y 1 4 x y x=2 y (1-y 2 ) für yœ[-1;1], ; i) [X]= Ÿ - x X HxL x = Ÿ 0 1 x 4x 3 x = 4 5 [Y]= Ÿ - y Y HyL y = 1 Ÿ -1 y 2 y (1-y 2 ) y 1 =Ÿ 0 yÿ2 yi1- y 2 M y- 0 Ÿ -1 yÿ2 yi1- y 2 M y=0. X 8Y=y< HxL= XY Hx,yL Y HyL definiert für yœh-1, 1L 4 x y = 2 yi1-y 2 = 2 x für y x 1, M 1-y2 ii) [X {Y=y}]=Ÿ - xÿ X 8Y=y< HxL 1 2 x 2H1- yl x=ÿ y xÿ x= 1-y2 3I1-y 2 M für yœh-1, 1L 18.2.10 Beispiel: Ein Punkt wird zufällig in das Dreieck ABC mit A(0,0), B(0,1) und C(1,1) geworfen. Seine zufälligen Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung und den bedingten Erwartungswert von X unter der Bedingung {Y=y} sowie die bedingte Verteilung und den bedingten Erwartungswert von Y unter der Bedingung {X=x}.
96 18_Bedingte_Verteilung.nb Lösung: y B y+dy y x C x A x x+dx 1 i) 0 y 1: Ÿ - Ÿ- XY Hx, yl x y=ÿ 0 1 Ÿx 1 c x y=1 fl c=2 X 8Y=y< HxL= XY Hx,yL = 2 Y HyL 2 y = 1 y (Ÿ - Ÿ- XY Hx, yl x y=1, Y HyL=Ÿ - XY Hx, yl x) fl 1ê y für 0 x y, 0< y 1 X 8Y=y< HxL=: y 1 [X {Y=y}]=Ÿ - xÿ X 8Y=y< HxL x=ÿ 0 xÿ ii) 0 x 1: y x= y 2 Y 8X=x< HyL= XY Hx,yL 2 = X HxL H1-xLê0.5 = 1 ( X HxL=Ÿ 1-x - XY Hx, yl y) 1êH1- xl für x y 1, 0 x<1 Y 8X=x< HyL=: [Y {X=x}]=Ÿ - yÿ Y 8X=x< HyL 1 1 1+x y=ÿ x yÿ y= 1-x 2 18.2.11 Beispiel: Sei XY Hx, yl=c y, für (x,y)œd, 0 für (x,y) D, wobei D von der Kurve y=x 2 und der Gerade y=1 beschränkt wird, die gemeinsame Verteilungsdichte zweier stetiger Zufallsvariablen X und Y. Bestimmen Sie die Konstante c, die bedingte Verteilungsdichte von X unter der Bedingung {Y=y} und die bedingte Verteilungsdichte von Y unter der Bedingug {X=x}. Überprüfen Sie, ob die Zufallsvariablen X und Y unabhängig sind. Lösung: y x i)
18_Bedingte_Verteilung.nb 97 Ÿ - Ÿ- XY Hx, yl x y=1 1 Ÿ 1-1Ÿx 2c y x y=c 4 5 = 1 fl c= 5 4 ii) X HxL=Ÿ - XY Hx, yl y =Ÿ x 2 1 c y y= c 2 A1- x4 E Y HyL=Ÿ - XY Hx, yl y=ÿ - y y c y x=2 c y y iii) X 8Y=y< HxL= XY Hx,yL Y HyL Y 8X=x< HyL= XY Hx,yL X HxL iv) Die Zufallsvariablen X und Y sind abhängig XY Hx, yl X HxL Y HyL und auch X 8Y=y< HxL X HxL und Y 8X=x< HyL Y HyL 1íJ2 =: y N für xœb- y, y F, yœ@-1, 1D\80< =: 2 yëi1- x4 M für yœax 2, 1E, xœh-1, 1L 18.2.12 Beispiel (Ein Problem von BAYES): Die Wahrscheinlichkeit eines Ereignisses A sei eine unbekannte Größe X, von der wir annehmen, dass sie im Intervall @0, 1D gleichverteilt ist. Wie groß ist die Wahrscheinlichkeit dafür, dass diese Größe X im Intervall @a, bd liegt, wenn bekannt ist, dass das Ereignis A bei n Versuchen m mal eingetreten ist? Lösung: Die Zufallsvariable X beschreibe die unbekannte Wahrscheinlichkeit des Ereignisses A, die Zufallsvariable Z bezeichne die Anzahl, wie oft das Ereignis A bei n Versuchen auftritt. Aus der Angabe entnehmen wir, dass die Zufallsvariable X im Intervall @0, 1D gleichverteilt ist, also X = @80, 1<D gilt, und dass (man vergleiche dazu die Formel von Bernoulli) unter der Bedingung 8X = x< die Zufallsvariable Z mit den Parametern n und x binomialverteilt ist, also Z 8X=x< = @n, xd gilt. Unter Verwendung des Satzes von Bayes in differenzieller Form (die Ereignisses 8X œ@x, x+ xd< bilden ein "infinitesimales" vollständiges Ereignissystem) ergibt sich damit für die von uns gesuchte bedingte Wahrscheinlichkeit @8X œ@a, bd< 8Z = m<d= Ÿ b @8Z = m< 8X = x<d @8X œ@x, x+ xd<d a 1 Ÿ @8Z = m< 8X = x<d @8X œ@x, x+ xd<d 0 Unter Berücksichtigung von Z 8X=x< = @n, xd und X = @80, 1<D (also @8X œ@x, x+ xd<d= x) gilt weiter (man vergleiche dazu die Definitionen der Betafunktion und der regularisierten Betafunktion) @8X œ@a, bd< 8Z = m<d= Ÿ a b x m H1- xl n-m x Ÿ 0 1 x m H1- xl n-m x =B r @a, b, m+1, n-m+1d 18.2.13 Beispiel: Die Zufallsvariable X sei im Intervall @0, 1D gleichverteilt, die Zufallsvariable Y sei im Intervall @0, X D gleichverteilt (man beachte, dass es sich bei diesem Intervall um ein Intervall mit zufälliger Länge handelt). Man ermittle die Verteilungsdichte von Y. Lösung: Die Zufallsvariable Y besitzt offenbar den Träger Y =@0, 1D. Aus der Angabe entnimmt man außerdem X = @80, 1<D und Y 8X=x< = @80, x<d. Unter Verwendung des Satzes von der totalen Wahrscheinlichkeit in
98 18_Bedingte_Verteilung.nb differenzieller Form (die Ereignisses 8X œ@x, x + xd< bilden ein "infinitesimales" vollständiges Ereignissystem) ergibt sich damit für die von uns gesuchte Verteilungsdichte Y @yd (man beachte, dass im Fall x< y natürlich @8Y œ@y, y+ yd< 8X = x<d=0 ist) Y @yd= 1 y @8Y œ@y, y+ yd<d= 1 y Ÿ - @8Y œ@y, y+ yd< 8X = x<d @8X œ@x, x+ xd<d= = Ÿ y 1 1 x=-log@yd für 0 y 1 x Dieses Ergebnis erhält man natürlich auch unter Verwendung von Mathematica: Integrate@PDF@UniformDistribution@80, x<d, yd PDF@UniformDistribution@80, 1<D, xd, 8x, 0, 1<, AssumptionsÆ80 < y < 1<D Log@yD