18 Bedingte Verteilung

Größe: px
Ab Seite anzeigen:

Download "18 Bedingte Verteilung"

Transkript

1 18 Bedingte Verteilung In diesem Kapitel wollen wir uns mit der Verteilung (Verteilungsdichte, Verteilungsfunktion, Erwartungswert) einer Zufallsvariablen Z befassen, wenn man über die zusätzliche Information "das Ereignis W' ist bereits eingetreten" verfügt. Wir werden diesen Begriff - es handelt sich dabei um die bedingte Verteilung - genau definieren, seine wichtigsten Eigenschaften kennen lernen und anschließend an Hand von Beispielen zeigen, wie damit gearbeitet wird. Wir befassen uns dabei sowohl mit dem Fall, in dem das Ereignis W' eine positive Wahrscheinlichkeit besitzt, als auch mit dem Fall, in dem das Ereignis W' die Form 8Y = y< besitzt, wobei Y eine stetige Zufallsvariable ist und dieses Ereignis somit die Wahrscheinlichkeit 0 besitzt Die bedingte Verteilung (der diskrete Fall) Sei ein W-Maß auf dem Ereignisraum W, sei Z :WØ eine Zufallsvariable und sei W'ŒW ein Ereignis mit der Definition: Unter der bedingten Verteilung der Zufallsvariablen Z unter W' versteht man eine Abbildung Z W', welche jeder Menge BŒ die Wahrscheinlichkeit œ B< W'D zuordnet. Die Zahl Z gibt somit an, mit welcher Wahrscheinlichkeit durch den Mechanismus Z ein Wert aus der Menge B erzeugt wird, wenn bekannt ist, dass das Ereignis W' bereits eingetreten ist. Wie die Verteilung Z ist auch die bedingte Verteilung Z W' ein W-Maß auf. Wie bei Verteilungen arbeitet man auch bei bedingten Verteilungen wieder mit Verteilungsdichten bzw mit Verteilungsfunktionen. Wir definieren in diesem Zusammenhang: Definition: Unter der bedingten Verteilungsdichte Z W' der Zufallsvariablen Z unter W' versteht man die Verteilungsdichte der bedingten Verteilung Z W' von Z unter W'. Ist Z diskret, so handelt es sich dabei um die Abbildung Z W' : Ø mit = z< W'D für zœ Z Ist Z stetig, so handelt es sich dabei um die Abbildung Z W' : Ø mit Z œ@z, z+ zd< W'D Wegen Bemerkung bzw Bemerkung ist die bedingte Verteilung Z W' einer Zufallsvariablen Z durch ihre bedingte Verteilungsdichte Z W' bereits vollständig bestimmt Definition: Unter der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z unter W' versteht man die Verteilungsfunktion der bedingten Verteilung Z W' von Z unter W', also die Abbildung Z W' : Ø@0, 1D mit z< W'D Wegen Bemerkung ist die bedingte Verteilung Z W' einer Zufallsvariablen Z durch ihre bedingte Verteilungsfunktion Z W' bereits vollständig bestimmt. Mit der bedingten Verteilungsdichte Z W' bzw der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z unter W' arbeitet man genau so wie mit gewöhnlichen Verteilungsdichten bzw gewöhnlichen Verteilungsfunktionen. Beispielweise lässt sich damit der bedingte W'D der Zufallsvariablen Z unter W' definieren:

2 88 18_Bedingte_Verteilung.nb Definition: Unter dem bedingten W'D einer integrierbaren Zufallsvariablen Z unter W' versteht man (je nachdem, ob die Zufallsvariable Z diskret bzw stetig ist) die W'D= zœ Z z Z W'D=Ÿ - z Z z Der bedingte Erwartungswert besitzt ebenfalls die vom gewöhnlichen Erwartungswert bekannten Eigenschaften: Bemerkung: Sind X, Y und Z beliebige Zufallsvariable, so gilt a) Linearität: Sind X und Y integrierbar und sind a, bœ, so X + b Y W'D+ W'D b) Monotonie: Sind X und Y integrierbar und ist X Y, so W'D c) Hintereinanderausführung: Ist g : Ø eine Abbildung und ist die Zufallsvariable gëz integrierbar, so gilt (je nachdem, ob die Zufallsvariable Z diskret bzw stetig W'D= zœ Z g@zd Z W'D=Ÿ - g@zd Z z Von großer Bedeutung für das praktische Rechnen ist wieder der Satz von der totalen Wahrscheinlichkeit: Satz von der totalen Wahrscheinlichkeit: Ist Z :WØ eine Zufallsvariable und bilden die Ereignisse B 1, B 2,, B n ŒW ein vollständiges Ereignissystem, so gilt n Z = Z i D i=1 und damit n n n Z = Z i D bzw Z = Z i Bi i D i=1 i=1 i=1 wobei bei der letzten Formel natürlich die Integrierbarkeit der Zufallsvariablen Z vorausgesetzt wird Bemerkung: Sind Y :WØ und Z :WØ diskrete Zufallsvariable, so gilt Z Y,Z@y, zd Es folgen wieder einige Beispiele: Beispiel: Die diskrete Zufallsvariablen X und Y besitzen gemeinsameverteilungstabelle: Y\X i) Bestimmen Sie die Verteilungsdichte X HxL und Y HyL; ii) Bestimen Sie die bedingte Verteilungsdichte X 8Y=0.4< HxL und Y 8X=8< HyL. iii) Bestimmen Sie die Erwartungswerte [X 8Y = 0.4<] und [Y 8X = 8<]. Lösung: il

3 18_Bedingte_Verteilung.nb 89 X HxL= xœ X p xy ï X X HxL Y HyL= yœ Y p xy ï Y Y HyL iil X 8Y=0.4< HxL= XYHx, yl ï Y HyL X X 8Y=0.4< HxL p x y=0.4 = 1 xœ X Y 8X=8< HyL= XYHx, yl ï X HxL Y Y 8X=8< HxL p y x=8 = 1 yœ Y 8Y=0.4<D= xœ X x ÿ p x y=0.4 = 2ÿ ÿ X=8<D= yœ Y y ÿ p y x=8 = 0.4ÿ ÿ0.0789= Beispiel (Ruinproblem): Ein Spieler nimmt an einem Glücksspiel teil, bei dem er unabhängig vom Kapital, über das er gerade verfügt, mit der Wahrscheinlichkeit 1 ê2 einen Euro gewinnen bzw verlieren kann. Unser Spieler spielt so lange, bis er entweder sein Anfangskapital von a Euro verloren hat oder aber den Zielbetrag von b (mit b> a) Euro gewonnen hat. Wie lange wird dieser Spieler im Mittel spielen? Lösung: Es bezeichne Z die Anzahl der Spiele unseres Spielers und X das Kapital, über das der Spieler im Moment verfügt. Außerdem bezeichne B 1 das Ereignis "der Spieler gewinnt das nächste Spiel" und B 2 das Ereignis "der Spieler verliert das nächste Spiel". Für alle nœ und alle kœ81, 2, b- 1< gilt = n< 8X = = n< B 1 8X = = n< B 2 8X = k<d=

4 90 18_Bedingte_Verteilung.nb = n< 8X = k< B 1 1 8X = = n< 8X = k< B 2 2 8X = k<d Vergleicht man die beiden Situationen vor und nach dem nächsten Spiel (falls der Spieler derzeit über k Euro verfügt, das nächste Spiel gewinnen wird und insgesamt noch n Spiele bis zur Entscheidung bestreiten muss, so entspricht diese Situation offenbar jener Situation, in der der Spieler derzeit über k + 1 Euro verfügt und bis zur Entscheidung noch n-1 Spiele bestreiten muss) und berücksichtigt man die Tatsache, 1 8X = k<d=1ê2 2 8X = k<d=1ê2 gilt, so ergibt sich = n< 8X = k<d= = n-1< 8X = k+ = n-1< 8X = k- 1<Dê2 Unter Verwendung der Substitution m := n-1 erhalten wir 8X = k<d= = n< 8X = k<d= n=1 = = n- 1< 8X = k+ 1<D+ n=1 2 = n-1< 8X = k- 1<D n=1 = = m< 8X = k+ 1<D+ m=0 2 = m< 8X = k- 1<D= m=0 = X = k+ 1<D+ 1 8X = k- 1<D 8X = k+ 8X = 8X = k- 1<D-2 Berücksichtigt man die Tatsache, 8X = 0<D=0 gilt, so ergibt sich aus dieser rekursiven Beziehung nach kurzer 8X = 8X = 1<D- k+ 1L Berücksichtigt man noch, 8X = b<d=0 gilt, so folgt daraus unmittelbar die gesuchte 8X = a<d=ahb-al 18.2 Die bedingte Verteilung (der stetige Fall) Bisher haben wir die bedingte W'D eines Ereignisses A sowie die bedingte Verteilung Z W', die bedingte Verteilungsdichte Z W', die bedingte Verteilungsfunktion Z W' und den bedingten W'D einer Zufallsvariablen Z nur im 0 erklärt. Oft benötigt man die bedingte Wahrscheinlichkeit eines Ereignisses A sowie die bedingte Verteilung, die bedingte Verteilungsdichte, die bedingte Verteilungsfunktion und den bedingten Erwartungswert einer Zufallsvariablen Z jedoch auch unter der Bedingung 8Y = y<, wobei Y eine stetige Zufallsvariablen ist und = y<d=0 gilt. Im Rahmen der Wahrscheinlichkeitstheorie wurde für die Behandlung der damit zusammenhängenden Fragen eine eigene, sehr tiefliegende Theorie entwickelt (es handelt sich dabei um die sogenannte RADON-NIKODYM- Ableitung von Maßen). Für unsere Zwecke ist die folgende Merkregel (differenzielle Denkweise) aber völlig ausreichend: Merkregel: Sei ein W-Maß auf dem Ereignisraum W, sei AŒW ein Ereignis, Z :WØ eine beliebige (integrierbare) und Y :WØ eine stetige Zufallsvariable. Interpretiert 8Y = y<d 8Y œ@y, y+ yd<d Z 8Y=y< als Z 8Yœ@y,y+ yd<

5 18_Bedingte_Verteilung.nb 91 Z 8Y=y< als Z 8Yœ@y,y+ yd< Z 8Y=y< als Z 8Yœ@y,y+ 8Y = y<d 8Y œ@y, y+ yd<d so führt dies zusammen mit einer differenziellen Interpretation unserer bisherigen Begriffe und Sätze (vor allem des Satzes von der totalen Wahrscheinlichkeit) stets zu richtigen Aussagen. Man muss dabei allerdings berücksichtigen, dass die beiden 8Y = <D : Ø 8Y = <D : Ø nur bis auf eine Y -Nullfunktion eindeutig bestimmt sind (unter einer Y -Nullfunktion versteht man dabei eine Abbildung f : Ø mit der Eigenschaft f = 0<D=1). Aussagen 8Y = y<d 8Y = y<d gelten somit nur für " Y -fast alle" yœ. Wir wollen diese Vorgangsweise an einigen wichtigen Formeln erläutern: Bemerkung: Ist Z :WØ eine integrierbare und Y :WØ eine stetige Zufallsvariable, 8Y Beweis: Aus Satz zusammen mit dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die Ereignisse 8Y œ@ y, y + yd< bilden ein "infinitesimales" vollständiges Ereignissystem) 8Y =ä<dëyd=ÿ 8Y = œ@y, y Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable, so gilt Z Y,Z@y, zd Beweis: Wir verwenden die Definition der bedingten Wahrscheinlichkeit in differenzieller Form und erhalten œ@z, z+ zd< 8Y œ@y, y+ yd<d z = œ@z, z+ zd< 8Y œ@y, y+ yd<d y z œ@y, y+ yd<d = Y,Z@y, zd Bemerkung (Einsetzen einer Bedingung): Sind Y :WØ und Z :WØ stetige Zufallsvariable und ist g : µ Ø eine Abbildung mit der Eigenschaft, dass die Zufallsvariable g@y, ZD integrierbar ist, so ZD 8Y = ZD 8Y = y'<d Beweis: Wir verwenden Satz sowie die aus der differenziellen Interpretation der bedingten Wahrscheinlichkeit folgende Formel

6 92 18_Bedingte_Verteilung.nb und 8Y = y'<d für y= 8Y œ@y, y+ yd< 8Y = ZD 8Y = y'<d=ÿ - Ÿ- g@y, œ@y, y+ yd< 8Z œ@z, z+ zd< 8Y = y'<d= =Ÿ - g@y', œ@z, z+ zd< 8Y = ZD 8Y = y'<d

7 18_Bedingte_Verteilung.nb Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable, so gilt für alle zœ - Z yd y Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel über das Einsetzen einer Bedingung ergibt sich + Z œ@z, z+ zd<d= =Ÿ + Z œ@z, z+ zd< 8Y = œ@y, y+ yd<d= =Ÿ œ@z- y, z- y+ zd< 8Y = œ@y, y+ yd<d= =Ÿ - Z yd z y Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable und ist Y positiv, so gilt 0 Z zd y y Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel über das Einsetzen einer Bedingung ergibt sich wieder (man beachte dabei, dass das z, y z+ y zd die Länge y z besitzt) œ@z, z+ zd<d= =Ÿ œ@z, z+ zd< 8Y = œ@y, y+ yd<d= =Ÿ œ@y z, y z+ y zd< 8Y = œ@y, y+ yd<d= =Ÿ 0 Z zd y z y Es folgen wieder einige Beispiele: Beispiel: Gegeben sei die gemeinsame Verteilungsdichte 4Hx y+ x+ ylê5 für 0 x 1und 0 y 1 yd=: der beiden stetigen Zufallsvariablen X und Y. Man bestimme die bedingte Verteilungsdichte X 8Y=y< sowie den bedingten 8Y = y<d von X unter der Bedingung 8Y = y<. Lösung: Wir geben zunächst die Funktion X,Y Mathematica-gerecht ein: fxy@x_, y_d := Piecewise@884Hx y+x+ylê5, And@0 x 1, 0 y 1D<<D Wegen Integrate@fXY@x, yd, 8x, -, <, 8y, -, <D 1 handelt es sich bei der (offensichtlich nicht negativen) Abbildung X,Y tatsächlich um eine gemeinsame Verteilungsdichte von stetigen Zufallsvariablen. Für die Verteilungsdichte Y von Y, sowie die bedingte Verteilungsdichte

8 94 18_Bedingte_Verteilung.nb Y X 8Y=y< und den bedingten 8Y = y<d von X unter der Bedingung 8Y = y< ergibt sich wegen Bemerkung , Bemerkung sowie Definition zusammen mit unserer Merkregel für alle 0 y 1 fy@y_d := Integrate@fXY@x, yd, 8x, -, <D fxuntery@x_, y_d := Piecewise@88fXY@x, ydêfy@yd, And@0 x 1, 0 y 1D<<D EXunterY@y_D := Integrate@x fxuntery@x, yd, 8x, -, <D fy@yd fxuntery@x, yd êê Simplify EXunterY@yD 2 H1 + 3 yl 0 y Hx+y+x yl 1+3 y 0 x 1 && 0 y y 3 H1+3 yl 0 y 1 also - X yd x= 2H1+3 yl für 0 y 1 5 sowie für alle 0 y 1 und X X Y@x, yd = 2Hx+ y+x yl für 0 x 1 3 8Y = y<d=ÿ - x X x= 5 y+2 9 y+3 Clear@fXY, fy, fxuntery, EXunterYD Beispiel: Ein Punkt wird zufällig in den ersten Quadrant des Einheitskreises geworfen. Seine zufälligen Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung von Y unter der Bedingung 8X = x<. Lösung: Bei der gemeinsamen Verteilung X,Y der beiden Zufallsvariablen X und Y handelt es sich offenbar um die Gleichverteilung auf dem ersten Quadrant des Einheitskreises, also yd=; 4êp für x, y 0und x2 + y 2 1 Wegen Bemerkung gilt damit (man veranschauliche sich den Sachverhalt an einer Skizze) - yd y= 4 1-x2 êp für 0 x 1 was wegen Bemerkung für alle 0 x 1

9 18_Bedingte_Verteilung.nb 95 Y X,Y@x, yd = 1ê 1-x2 für 0 y 1- x2 zur Folge hat. Bei der bedingten Verteilung von Y unter der Bedingung 8X = x< handelt es sich also um die Gleichverteilung auf dem 1- x 2 D Beispiel: Sei X,Y (x,y)#: 4 x y für 0 x 1, -x y x i) Bestimmen Sie 8X 8Y=y<< HxL. Für welche yœ ist diese Vertilungsdichte überhaupt definiert und warum? ii) Bestimmen Sie [X {Y=y}]. Lösung: Vgl. Beispiel X,Y (x,y)#: 4 x y für 0 x 1, -x y x X HxL=Ÿ - XY Hx, yl x y=ÿ -x 4 x y y=8 x Ÿ 0 4 x y y=4x 3 für xœ[0,1], ; Y HyL=Ÿ - XY Hx, yl x=ÿ y 1 4 x y x=2 y (1-y 2 ) für yœ[-1;1], ; i) [X]= Ÿ - x X HxL x = Ÿ 0 1 x 4x 3 x = 4 5 [Y]= Ÿ - y Y HyL y = 1 Ÿ -1 y 2 y (1-y 2 ) y 1 =Ÿ 0 yÿ2 yi1- y 2 M y- 0 Ÿ -1 yÿ2 yi1- y 2 M y=0. X 8Y=y< HxL= XY Hx,yL Y HyL definiert für yœh-1, 1L 4 x y = 2 yi1-y 2 = 2 x für y x 1, M 1-y2 ii) [X {Y=y}]=Ÿ - xÿ X 8Y=y< HxL 1 2 x 2H1- yl x=ÿ y xÿ x= 1-y2 3I1-y 2 M für yœh-1, 1L Beispiel: Ein Punkt wird zufällig in das Dreieck ABC mit A(0,0), B(0,1) und C(1,1) geworfen. Seine zufälligen Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung und den bedingten Erwartungswert von X unter der Bedingung {Y=y} sowie die bedingte Verteilung und den bedingten Erwartungswert von Y unter der Bedingung {X=x}.

10 96 18_Bedingte_Verteilung.nb Lösung: y B y+dy y x C x A x x+dx 1 i) 0 y 1: Ÿ - Ÿ- XY Hx, yl x y=ÿ 0 1 Ÿx 1 c x y=1 fl c=2 X 8Y=y< HxL= XY Hx,yL = 2 Y HyL 2 y = 1 y (Ÿ - Ÿ- XY Hx, yl x y=1, Y HyL=Ÿ - XY Hx, yl x) fl 1ê y für 0 x y, 0< y 1 X 8Y=y< HxL=: y 1 [X {Y=y}]=Ÿ - xÿ X 8Y=y< HxL x=ÿ 0 xÿ ii) 0 x 1: y x= y 2 Y 8X=x< HyL= XY Hx,yL 2 = X HxL H1-xLê0.5 = 1 ( X HxL=Ÿ 1-x - XY Hx, yl y) 1êH1- xl für x y 1, 0 x<1 Y 8X=x< HyL=: [Y {X=x}]=Ÿ - yÿ Y 8X=x< HyL x y=ÿ x yÿ y= 1-x Beispiel: Sei XY Hx, yl=c y, für (x,y)œd, 0 für (x,y) D, wobei D von der Kurve y=x 2 und der Gerade y=1 beschränkt wird, die gemeinsame Verteilungsdichte zweier stetiger Zufallsvariablen X und Y. Bestimmen Sie die Konstante c, die bedingte Verteilungsdichte von X unter der Bedingung {Y=y} und die bedingte Verteilungsdichte von Y unter der Bedingug {X=x}. Überprüfen Sie, ob die Zufallsvariablen X und Y unabhängig sind. Lösung: y x i)

11 18_Bedingte_Verteilung.nb 97 Ÿ - Ÿ- XY Hx, yl x y=1 1 Ÿ 1-1Ÿx 2c y x y=c 4 5 = 1 fl c= 5 4 ii) X HxL=Ÿ - XY Hx, yl y =Ÿ x 2 1 c y y= c 2 A1- x4 E Y HyL=Ÿ - XY Hx, yl y=ÿ - y y c y x=2 c y y iii) X 8Y=y< HxL= XY Hx,yL Y HyL Y 8X=x< HyL= XY Hx,yL X HxL iv) Die Zufallsvariablen X und Y sind abhängig XY Hx, yl X HxL Y HyL und auch X 8Y=y< HxL X HxL und Y 8X=x< HyL Y HyL 1íJ2 =: y N für xœb- y, y F, yœ@-1, 1D\80< =: 2 yëi1- x4 M für yœax 2, 1E, xœh-1, 1L Beispiel (Ein Problem von BAYES): Die Wahrscheinlichkeit eines Ereignisses A sei eine unbekannte Größe X, von der wir annehmen, dass sie im 1D gleichverteilt ist. Wie groß ist die Wahrscheinlichkeit dafür, dass diese Größe X im bd liegt, wenn bekannt ist, dass das Ereignis A bei n Versuchen m mal eingetreten ist? Lösung: Die Zufallsvariable X beschreibe die unbekannte Wahrscheinlichkeit des Ereignisses A, die Zufallsvariable Z bezeichne die Anzahl, wie oft das Ereignis A bei n Versuchen auftritt. Aus der Angabe entnehmen wir, dass die Zufallsvariable X im 1D gleichverteilt ist, also X 1<D gilt, und dass (man vergleiche dazu die Formel von Bernoulli) unter der Bedingung 8X = x< die Zufallsvariable Z mit den Parametern n und x binomialverteilt ist, also Z 8X=x< xd gilt. Unter Verwendung des Satzes von Bayes in differenzieller Form (die Ereignisses 8X œ@x, x+ xd< bilden ein "infinitesimales" vollständiges Ereignissystem) ergibt sich damit für die von uns gesuchte bedingte œ@a, bd< 8Z = m<d= Ÿ = m< 8X = œ@x, x+ xd<d a 1 = m< 8X = œ@x, x+ xd<d 0 Unter Berücksichtigung von Z 8X=x< xd und X 1<D œ@x, x+ xd<d= x) gilt weiter (man vergleiche dazu die Definitionen der Betafunktion und der regularisierten œ@a, bd< 8Z = m<d= Ÿ a b x m H1- xl n-m x Ÿ 0 1 x m H1- xl n-m x =B b, m+1, n-m+1d Beispiel: Die Zufallsvariable X sei im 1D gleichverteilt, die Zufallsvariable Y sei im X D gleichverteilt (man beachte, dass es sich bei diesem Intervall um ein Intervall mit zufälliger Länge handelt). Man ermittle die Verteilungsdichte von Y. Lösung: Die Zufallsvariable Y besitzt offenbar den Träger Y =@0, 1D. Aus der Angabe entnimmt man außerdem X 1<D und Y 8X=x< x<d. Unter Verwendung des Satzes von der totalen Wahrscheinlichkeit in

12 98 18_Bedingte_Verteilung.nb differenzieller Form (die Ereignisses 8X x + xd< bilden ein "infinitesimales" vollständiges Ereignissystem) ergibt sich damit für die von uns gesuchte Verteilungsdichte (man beachte, dass im Fall x< y œ@y, y+ yd< 8X = x<d=0 ist) 1 œ@y, y+ yd<d= 1 y Ÿ œ@y, y+ yd< 8X = œ@x, x+ xd<d= = Ÿ y 1 1 x=-log@yd für 0 y 1 x Dieses Ergebnis erhält man natürlich auch unter Verwendung von Mathematica: Integrate@PDF@UniformDistribution@80, x<d, yd PDF@UniformDistribution@80, 1<D, xd, 8x, 0, 1<, AssumptionsÆ80 < y < 1<D Log@yD

10 Bedingte Wahrscheinlichkeit

10 Bedingte Wahrscheinlichkeit 10 Bedingte Wahrscheinlichkeit Vor allem dann, wenn man es mit mehrstufigen Zufallsexperimenten zu tun hat, kommt dem Begriff der bedingten Wahrscheinlichkeit eine bedeutende Rolle zu. Wir klären dazu

Mehr

11 Unabhängige Ereignisse

11 Unabhängige Ereignisse 11 Unabhängige Ereignisse In engem Zusammenhang mit dem Begriff der bedingten Wahrscheinlichkeit steht der Begriff der Unabhängigkeit von Ereignissen. Wir klären zuerst, was man unter unabhängigen Ereignissen

Mehr

12 Zufallsvariable und Verteilungen

12 Zufallsvariable und Verteilungen 12 Zufallsvariable und Verteilungen VariationenMitWiederholung@n_Integer, k_integerd := Distribute@Table@Table@i, 8i, 1, n

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

13 Diskrete Verteilungen

13 Diskrete Verteilungen 13 Diskrete Verteilungen DiscreteEmpiricalPDF@daten_, z_d := Module@8n, min, max, uni

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

8 Verteilungsfunktionen und Dichten

8 Verteilungsfunktionen und Dichten 8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man

Mehr

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Mathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung

Mathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung Mathematik für Informatiker III im WS 5/6 Musterlösung zur. Übung erstellt von K. Kriegel Aufgabe : Wir betrachten den Wahrscheinlichkeitsraum der Punkte P =(a, b) aus dem Einheitsquadrat [, ] [, ] mit

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 2013 Prof. Dr. Erich Walter Farkas Kapitel 8. Funktionen von mehreren Variablen 8.2 Partielle Differentiation Prof. Dr. Erich Walter Farkas Mathematik I+II, 8.2 Part. Diff.

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 10

Technische Universität München Zentrum Mathematik. Übungsblatt 10 Technische Universität München Zentrum Mathematik Mathematik 2 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt Hausaufgaben Aufgabe. Sei f : R 2 R gegeben durch x 2 y für (x, y)

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 24. November 2010 1 Stetige Verteilungen Normalapproximation Gleichverteilung Exponentialverteilung Normalapproximation

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

16 Erwartungswert und Varianz

16 Erwartungswert und Varianz 16 Erwartungswert und Varianz KombinationenOhneWiederholung@n_Integer, k_integerd := Permutations@Join@Table@1, 8k

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Einführung in die Stochastik 6. Übungsblatt

Einführung in die Stochastik 6. Übungsblatt Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

68 Abschätzungen für Abweichungen vom Erwartungswert

68 Abschätzungen für Abweichungen vom Erwartungswert 68 Abschätzungen für Abweichungen vom Erwartungswert 68.1 Motivation Mit der Varianz bzw. Standardabweichungen kennen wir bereits ein Maß für die Fluktuation einer Zufallsvariablen um ihren Erwartungswert.

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen

Mehr

15 Verteilungsfunktionen

15 Verteilungsfunktionen 15 Verteilungsfunktionen EmpiricalCDF@daten_, _D := Module@8n

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population

Mehr

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch Kapitel 4 Diskrete Verteilungen 4.1 Bernoulli-Verteilung Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch È Üµ ½ für Ü ¼ für Ü ½ ¼ sonst Die Bernoulli-Verteilung

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

(8 + 2 Punkte) = = 0.75

(8 + 2 Punkte) = = 0.75 Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben) Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen

Mehr

7 Bedingte Erwartungswerte und Bedingte Verteilungen

7 Bedingte Erwartungswerte und Bedingte Verteilungen 7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Kapitel VII. Einige spezielle stetige Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

6. Übungsblatt zur Einführung in die Stochastik

6. Übungsblatt zur Einführung in die Stochastik Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

6. Funktionen von mehreren Variablen

6. Funktionen von mehreren Variablen 6. Funktionen von mehreren Variablen Prof. Dr. Erich Walter Farkas 24.11.2011 Seite 1 Funktionen von mehreren Variablen n {1, 2, 3,...} =: N. R n := {(x 1,..., x n) x 1,..., x n R} = Menge aller n-tupel

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

3 Relative Häufigkeit

3 Relative Häufigkeit 3 Relative Häufigkeit RelativeTally@liste_D := Module@8h, n, m

Mehr