18 Bedingte Verteilung
|
|
- Charlotte Grosse
- vor 7 Jahren
- Abrufe
Transkript
1 18 Bedingte Verteilung In diesem Kapitel wollen wir uns mit der Verteilung (Verteilungsdichte, Verteilungsfunktion, Erwartungswert) einer Zufallsvariablen Z befassen, wenn man über die zusätzliche Information "das Ereignis W' ist bereits eingetreten" verfügt. Wir werden diesen Begriff - es handelt sich dabei um die bedingte Verteilung - genau definieren, seine wichtigsten Eigenschaften kennen lernen und anschließend an Hand von Beispielen zeigen, wie damit gearbeitet wird. Wir befassen uns dabei sowohl mit dem Fall, in dem das Ereignis W' eine positive Wahrscheinlichkeit besitzt, als auch mit dem Fall, in dem das Ereignis W' die Form 8Y = y< besitzt, wobei Y eine stetige Zufallsvariable ist und dieses Ereignis somit die Wahrscheinlichkeit 0 besitzt Die bedingte Verteilung (der diskrete Fall) Sei ein W-Maß auf dem Ereignisraum W, sei Z :WØ eine Zufallsvariable und sei W'ŒW ein Ereignis mit der Definition: Unter der bedingten Verteilung der Zufallsvariablen Z unter W' versteht man eine Abbildung Z W', welche jeder Menge BŒ die Wahrscheinlichkeit œ B< W'D zuordnet. Die Zahl Z gibt somit an, mit welcher Wahrscheinlichkeit durch den Mechanismus Z ein Wert aus der Menge B erzeugt wird, wenn bekannt ist, dass das Ereignis W' bereits eingetreten ist. Wie die Verteilung Z ist auch die bedingte Verteilung Z W' ein W-Maß auf. Wie bei Verteilungen arbeitet man auch bei bedingten Verteilungen wieder mit Verteilungsdichten bzw mit Verteilungsfunktionen. Wir definieren in diesem Zusammenhang: Definition: Unter der bedingten Verteilungsdichte Z W' der Zufallsvariablen Z unter W' versteht man die Verteilungsdichte der bedingten Verteilung Z W' von Z unter W'. Ist Z diskret, so handelt es sich dabei um die Abbildung Z W' : Ø mit = z< W'D für zœ Z Ist Z stetig, so handelt es sich dabei um die Abbildung Z W' : Ø mit Z œ@z, z+ zd< W'D Wegen Bemerkung bzw Bemerkung ist die bedingte Verteilung Z W' einer Zufallsvariablen Z durch ihre bedingte Verteilungsdichte Z W' bereits vollständig bestimmt Definition: Unter der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z unter W' versteht man die Verteilungsfunktion der bedingten Verteilung Z W' von Z unter W', also die Abbildung Z W' : Ø@0, 1D mit z< W'D Wegen Bemerkung ist die bedingte Verteilung Z W' einer Zufallsvariablen Z durch ihre bedingte Verteilungsfunktion Z W' bereits vollständig bestimmt. Mit der bedingten Verteilungsdichte Z W' bzw der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z unter W' arbeitet man genau so wie mit gewöhnlichen Verteilungsdichten bzw gewöhnlichen Verteilungsfunktionen. Beispielweise lässt sich damit der bedingte W'D der Zufallsvariablen Z unter W' definieren:
2 88 18_Bedingte_Verteilung.nb Definition: Unter dem bedingten W'D einer integrierbaren Zufallsvariablen Z unter W' versteht man (je nachdem, ob die Zufallsvariable Z diskret bzw stetig ist) die W'D= zœ Z z Z W'D=Ÿ - z Z z Der bedingte Erwartungswert besitzt ebenfalls die vom gewöhnlichen Erwartungswert bekannten Eigenschaften: Bemerkung: Sind X, Y und Z beliebige Zufallsvariable, so gilt a) Linearität: Sind X und Y integrierbar und sind a, bœ, so X + b Y W'D+ W'D b) Monotonie: Sind X und Y integrierbar und ist X Y, so W'D c) Hintereinanderausführung: Ist g : Ø eine Abbildung und ist die Zufallsvariable gëz integrierbar, so gilt (je nachdem, ob die Zufallsvariable Z diskret bzw stetig W'D= zœ Z g@zd Z W'D=Ÿ - g@zd Z z Von großer Bedeutung für das praktische Rechnen ist wieder der Satz von der totalen Wahrscheinlichkeit: Satz von der totalen Wahrscheinlichkeit: Ist Z :WØ eine Zufallsvariable und bilden die Ereignisse B 1, B 2,, B n ŒW ein vollständiges Ereignissystem, so gilt n Z = Z i D i=1 und damit n n n Z = Z i D bzw Z = Z i Bi i D i=1 i=1 i=1 wobei bei der letzten Formel natürlich die Integrierbarkeit der Zufallsvariablen Z vorausgesetzt wird Bemerkung: Sind Y :WØ und Z :WØ diskrete Zufallsvariable, so gilt Z Y,Z@y, zd Es folgen wieder einige Beispiele: Beispiel: Die diskrete Zufallsvariablen X und Y besitzen gemeinsameverteilungstabelle: Y\X i) Bestimmen Sie die Verteilungsdichte X HxL und Y HyL; ii) Bestimen Sie die bedingte Verteilungsdichte X 8Y=0.4< HxL und Y 8X=8< HyL. iii) Bestimmen Sie die Erwartungswerte [X 8Y = 0.4<] und [Y 8X = 8<]. Lösung: il
3 18_Bedingte_Verteilung.nb 89 X HxL= xœ X p xy ï X X HxL Y HyL= yœ Y p xy ï Y Y HyL iil X 8Y=0.4< HxL= XYHx, yl ï Y HyL X X 8Y=0.4< HxL p x y=0.4 = 1 xœ X Y 8X=8< HyL= XYHx, yl ï X HxL Y Y 8X=8< HxL p y x=8 = 1 yœ Y 8Y=0.4<D= xœ X x ÿ p x y=0.4 = 2ÿ ÿ X=8<D= yœ Y y ÿ p y x=8 = 0.4ÿ ÿ0.0789= Beispiel (Ruinproblem): Ein Spieler nimmt an einem Glücksspiel teil, bei dem er unabhängig vom Kapital, über das er gerade verfügt, mit der Wahrscheinlichkeit 1 ê2 einen Euro gewinnen bzw verlieren kann. Unser Spieler spielt so lange, bis er entweder sein Anfangskapital von a Euro verloren hat oder aber den Zielbetrag von b (mit b> a) Euro gewonnen hat. Wie lange wird dieser Spieler im Mittel spielen? Lösung: Es bezeichne Z die Anzahl der Spiele unseres Spielers und X das Kapital, über das der Spieler im Moment verfügt. Außerdem bezeichne B 1 das Ereignis "der Spieler gewinnt das nächste Spiel" und B 2 das Ereignis "der Spieler verliert das nächste Spiel". Für alle nœ und alle kœ81, 2, b- 1< gilt = n< 8X = = n< B 1 8X = = n< B 2 8X = k<d=
4 90 18_Bedingte_Verteilung.nb = n< 8X = k< B 1 1 8X = = n< 8X = k< B 2 2 8X = k<d Vergleicht man die beiden Situationen vor und nach dem nächsten Spiel (falls der Spieler derzeit über k Euro verfügt, das nächste Spiel gewinnen wird und insgesamt noch n Spiele bis zur Entscheidung bestreiten muss, so entspricht diese Situation offenbar jener Situation, in der der Spieler derzeit über k + 1 Euro verfügt und bis zur Entscheidung noch n-1 Spiele bestreiten muss) und berücksichtigt man die Tatsache, 1 8X = k<d=1ê2 2 8X = k<d=1ê2 gilt, so ergibt sich = n< 8X = k<d= = n-1< 8X = k+ = n-1< 8X = k- 1<Dê2 Unter Verwendung der Substitution m := n-1 erhalten wir 8X = k<d= = n< 8X = k<d= n=1 = = n- 1< 8X = k+ 1<D+ n=1 2 = n-1< 8X = k- 1<D n=1 = = m< 8X = k+ 1<D+ m=0 2 = m< 8X = k- 1<D= m=0 = X = k+ 1<D+ 1 8X = k- 1<D 8X = k+ 8X = 8X = k- 1<D-2 Berücksichtigt man die Tatsache, 8X = 0<D=0 gilt, so ergibt sich aus dieser rekursiven Beziehung nach kurzer 8X = 8X = 1<D- k+ 1L Berücksichtigt man noch, 8X = b<d=0 gilt, so folgt daraus unmittelbar die gesuchte 8X = a<d=ahb-al 18.2 Die bedingte Verteilung (der stetige Fall) Bisher haben wir die bedingte W'D eines Ereignisses A sowie die bedingte Verteilung Z W', die bedingte Verteilungsdichte Z W', die bedingte Verteilungsfunktion Z W' und den bedingten W'D einer Zufallsvariablen Z nur im 0 erklärt. Oft benötigt man die bedingte Wahrscheinlichkeit eines Ereignisses A sowie die bedingte Verteilung, die bedingte Verteilungsdichte, die bedingte Verteilungsfunktion und den bedingten Erwartungswert einer Zufallsvariablen Z jedoch auch unter der Bedingung 8Y = y<, wobei Y eine stetige Zufallsvariablen ist und = y<d=0 gilt. Im Rahmen der Wahrscheinlichkeitstheorie wurde für die Behandlung der damit zusammenhängenden Fragen eine eigene, sehr tiefliegende Theorie entwickelt (es handelt sich dabei um die sogenannte RADON-NIKODYM- Ableitung von Maßen). Für unsere Zwecke ist die folgende Merkregel (differenzielle Denkweise) aber völlig ausreichend: Merkregel: Sei ein W-Maß auf dem Ereignisraum W, sei AŒW ein Ereignis, Z :WØ eine beliebige (integrierbare) und Y :WØ eine stetige Zufallsvariable. Interpretiert 8Y = y<d 8Y œ@y, y+ yd<d Z 8Y=y< als Z 8Yœ@y,y+ yd<
5 18_Bedingte_Verteilung.nb 91 Z 8Y=y< als Z 8Yœ@y,y+ yd< Z 8Y=y< als Z 8Yœ@y,y+ 8Y = y<d 8Y œ@y, y+ yd<d so führt dies zusammen mit einer differenziellen Interpretation unserer bisherigen Begriffe und Sätze (vor allem des Satzes von der totalen Wahrscheinlichkeit) stets zu richtigen Aussagen. Man muss dabei allerdings berücksichtigen, dass die beiden 8Y = <D : Ø 8Y = <D : Ø nur bis auf eine Y -Nullfunktion eindeutig bestimmt sind (unter einer Y -Nullfunktion versteht man dabei eine Abbildung f : Ø mit der Eigenschaft f = 0<D=1). Aussagen 8Y = y<d 8Y = y<d gelten somit nur für " Y -fast alle" yœ. Wir wollen diese Vorgangsweise an einigen wichtigen Formeln erläutern: Bemerkung: Ist Z :WØ eine integrierbare und Y :WØ eine stetige Zufallsvariable, 8Y Beweis: Aus Satz zusammen mit dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die Ereignisse 8Y œ@ y, y + yd< bilden ein "infinitesimales" vollständiges Ereignissystem) 8Y =ä<dëyd=ÿ 8Y = œ@y, y Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable, so gilt Z Y,Z@y, zd Beweis: Wir verwenden die Definition der bedingten Wahrscheinlichkeit in differenzieller Form und erhalten œ@z, z+ zd< 8Y œ@y, y+ yd<d z = œ@z, z+ zd< 8Y œ@y, y+ yd<d y z œ@y, y+ yd<d = Y,Z@y, zd Bemerkung (Einsetzen einer Bedingung): Sind Y :WØ und Z :WØ stetige Zufallsvariable und ist g : µ Ø eine Abbildung mit der Eigenschaft, dass die Zufallsvariable g@y, ZD integrierbar ist, so ZD 8Y = ZD 8Y = y'<d Beweis: Wir verwenden Satz sowie die aus der differenziellen Interpretation der bedingten Wahrscheinlichkeit folgende Formel
6 92 18_Bedingte_Verteilung.nb und 8Y = y'<d für y= 8Y œ@y, y+ yd< 8Y = ZD 8Y = y'<d=ÿ - Ÿ- g@y, œ@y, y+ yd< 8Z œ@z, z+ zd< 8Y = y'<d= =Ÿ - g@y', œ@z, z+ zd< 8Y = ZD 8Y = y'<d
7 18_Bedingte_Verteilung.nb Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable, so gilt für alle zœ - Z yd y Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel über das Einsetzen einer Bedingung ergibt sich + Z œ@z, z+ zd<d= =Ÿ + Z œ@z, z+ zd< 8Y = œ@y, y+ yd<d= =Ÿ œ@z- y, z- y+ zd< 8Y = œ@y, y+ yd<d= =Ÿ - Z yd z y Bemerkung: Sind Y :WØ und Z :WØ stetige Zufallsvariable und ist Y positiv, so gilt 0 Z zd y y Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel über das Einsetzen einer Bedingung ergibt sich wieder (man beachte dabei, dass das z, y z+ y zd die Länge y z besitzt) œ@z, z+ zd<d= =Ÿ œ@z, z+ zd< 8Y = œ@y, y+ yd<d= =Ÿ œ@y z, y z+ y zd< 8Y = œ@y, y+ yd<d= =Ÿ 0 Z zd y z y Es folgen wieder einige Beispiele: Beispiel: Gegeben sei die gemeinsame Verteilungsdichte 4Hx y+ x+ ylê5 für 0 x 1und 0 y 1 yd=: der beiden stetigen Zufallsvariablen X und Y. Man bestimme die bedingte Verteilungsdichte X 8Y=y< sowie den bedingten 8Y = y<d von X unter der Bedingung 8Y = y<. Lösung: Wir geben zunächst die Funktion X,Y Mathematica-gerecht ein: fxy@x_, y_d := Piecewise@884Hx y+x+ylê5, And@0 x 1, 0 y 1D<<D Wegen Integrate@fXY@x, yd, 8x, -, <, 8y, -, <D 1 handelt es sich bei der (offensichtlich nicht negativen) Abbildung X,Y tatsächlich um eine gemeinsame Verteilungsdichte von stetigen Zufallsvariablen. Für die Verteilungsdichte Y von Y, sowie die bedingte Verteilungsdichte
8 94 18_Bedingte_Verteilung.nb Y X 8Y=y< und den bedingten 8Y = y<d von X unter der Bedingung 8Y = y< ergibt sich wegen Bemerkung , Bemerkung sowie Definition zusammen mit unserer Merkregel für alle 0 y 1 fy@y_d := Integrate@fXY@x, yd, 8x, -, <D fxuntery@x_, y_d := Piecewise@88fXY@x, ydêfy@yd, And@0 x 1, 0 y 1D<<D EXunterY@y_D := Integrate@x fxuntery@x, yd, 8x, -, <D fy@yd fxuntery@x, yd êê Simplify EXunterY@yD 2 H1 + 3 yl 0 y Hx+y+x yl 1+3 y 0 x 1 && 0 y y 3 H1+3 yl 0 y 1 also - X yd x= 2H1+3 yl für 0 y 1 5 sowie für alle 0 y 1 und X X Y@x, yd = 2Hx+ y+x yl für 0 x 1 3 8Y = y<d=ÿ - x X x= 5 y+2 9 y+3 Clear@fXY, fy, fxuntery, EXunterYD Beispiel: Ein Punkt wird zufällig in den ersten Quadrant des Einheitskreises geworfen. Seine zufälligen Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung von Y unter der Bedingung 8X = x<. Lösung: Bei der gemeinsamen Verteilung X,Y der beiden Zufallsvariablen X und Y handelt es sich offenbar um die Gleichverteilung auf dem ersten Quadrant des Einheitskreises, also yd=; 4êp für x, y 0und x2 + y 2 1 Wegen Bemerkung gilt damit (man veranschauliche sich den Sachverhalt an einer Skizze) - yd y= 4 1-x2 êp für 0 x 1 was wegen Bemerkung für alle 0 x 1
9 18_Bedingte_Verteilung.nb 95 Y X,Y@x, yd = 1ê 1-x2 für 0 y 1- x2 zur Folge hat. Bei der bedingten Verteilung von Y unter der Bedingung 8X = x< handelt es sich also um die Gleichverteilung auf dem 1- x 2 D Beispiel: Sei X,Y (x,y)#: 4 x y für 0 x 1, -x y x i) Bestimmen Sie 8X 8Y=y<< HxL. Für welche yœ ist diese Vertilungsdichte überhaupt definiert und warum? ii) Bestimmen Sie [X {Y=y}]. Lösung: Vgl. Beispiel X,Y (x,y)#: 4 x y für 0 x 1, -x y x X HxL=Ÿ - XY Hx, yl x y=ÿ -x 4 x y y=8 x Ÿ 0 4 x y y=4x 3 für xœ[0,1], ; Y HyL=Ÿ - XY Hx, yl x=ÿ y 1 4 x y x=2 y (1-y 2 ) für yœ[-1;1], ; i) [X]= Ÿ - x X HxL x = Ÿ 0 1 x 4x 3 x = 4 5 [Y]= Ÿ - y Y HyL y = 1 Ÿ -1 y 2 y (1-y 2 ) y 1 =Ÿ 0 yÿ2 yi1- y 2 M y- 0 Ÿ -1 yÿ2 yi1- y 2 M y=0. X 8Y=y< HxL= XY Hx,yL Y HyL definiert für yœh-1, 1L 4 x y = 2 yi1-y 2 = 2 x für y x 1, M 1-y2 ii) [X {Y=y}]=Ÿ - xÿ X 8Y=y< HxL 1 2 x 2H1- yl x=ÿ y xÿ x= 1-y2 3I1-y 2 M für yœh-1, 1L Beispiel: Ein Punkt wird zufällig in das Dreieck ABC mit A(0,0), B(0,1) und C(1,1) geworfen. Seine zufälligen Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung und den bedingten Erwartungswert von X unter der Bedingung {Y=y} sowie die bedingte Verteilung und den bedingten Erwartungswert von Y unter der Bedingung {X=x}.
10 96 18_Bedingte_Verteilung.nb Lösung: y B y+dy y x C x A x x+dx 1 i) 0 y 1: Ÿ - Ÿ- XY Hx, yl x y=ÿ 0 1 Ÿx 1 c x y=1 fl c=2 X 8Y=y< HxL= XY Hx,yL = 2 Y HyL 2 y = 1 y (Ÿ - Ÿ- XY Hx, yl x y=1, Y HyL=Ÿ - XY Hx, yl x) fl 1ê y für 0 x y, 0< y 1 X 8Y=y< HxL=: y 1 [X {Y=y}]=Ÿ - xÿ X 8Y=y< HxL x=ÿ 0 xÿ ii) 0 x 1: y x= y 2 Y 8X=x< HyL= XY Hx,yL 2 = X HxL H1-xLê0.5 = 1 ( X HxL=Ÿ 1-x - XY Hx, yl y) 1êH1- xl für x y 1, 0 x<1 Y 8X=x< HyL=: [Y {X=x}]=Ÿ - yÿ Y 8X=x< HyL x y=ÿ x yÿ y= 1-x Beispiel: Sei XY Hx, yl=c y, für (x,y)œd, 0 für (x,y) D, wobei D von der Kurve y=x 2 und der Gerade y=1 beschränkt wird, die gemeinsame Verteilungsdichte zweier stetiger Zufallsvariablen X und Y. Bestimmen Sie die Konstante c, die bedingte Verteilungsdichte von X unter der Bedingung {Y=y} und die bedingte Verteilungsdichte von Y unter der Bedingug {X=x}. Überprüfen Sie, ob die Zufallsvariablen X und Y unabhängig sind. Lösung: y x i)
11 18_Bedingte_Verteilung.nb 97 Ÿ - Ÿ- XY Hx, yl x y=1 1 Ÿ 1-1Ÿx 2c y x y=c 4 5 = 1 fl c= 5 4 ii) X HxL=Ÿ - XY Hx, yl y =Ÿ x 2 1 c y y= c 2 A1- x4 E Y HyL=Ÿ - XY Hx, yl y=ÿ - y y c y x=2 c y y iii) X 8Y=y< HxL= XY Hx,yL Y HyL Y 8X=x< HyL= XY Hx,yL X HxL iv) Die Zufallsvariablen X und Y sind abhängig XY Hx, yl X HxL Y HyL und auch X 8Y=y< HxL X HxL und Y 8X=x< HyL Y HyL 1íJ2 =: y N für xœb- y, y F, yœ@-1, 1D\80< =: 2 yëi1- x4 M für yœax 2, 1E, xœh-1, 1L Beispiel (Ein Problem von BAYES): Die Wahrscheinlichkeit eines Ereignisses A sei eine unbekannte Größe X, von der wir annehmen, dass sie im 1D gleichverteilt ist. Wie groß ist die Wahrscheinlichkeit dafür, dass diese Größe X im bd liegt, wenn bekannt ist, dass das Ereignis A bei n Versuchen m mal eingetreten ist? Lösung: Die Zufallsvariable X beschreibe die unbekannte Wahrscheinlichkeit des Ereignisses A, die Zufallsvariable Z bezeichne die Anzahl, wie oft das Ereignis A bei n Versuchen auftritt. Aus der Angabe entnehmen wir, dass die Zufallsvariable X im 1D gleichverteilt ist, also X 1<D gilt, und dass (man vergleiche dazu die Formel von Bernoulli) unter der Bedingung 8X = x< die Zufallsvariable Z mit den Parametern n und x binomialverteilt ist, also Z 8X=x< xd gilt. Unter Verwendung des Satzes von Bayes in differenzieller Form (die Ereignisses 8X œ@x, x+ xd< bilden ein "infinitesimales" vollständiges Ereignissystem) ergibt sich damit für die von uns gesuchte bedingte œ@a, bd< 8Z = m<d= Ÿ = m< 8X = œ@x, x+ xd<d a 1 = m< 8X = œ@x, x+ xd<d 0 Unter Berücksichtigung von Z 8X=x< xd und X 1<D œ@x, x+ xd<d= x) gilt weiter (man vergleiche dazu die Definitionen der Betafunktion und der regularisierten œ@a, bd< 8Z = m<d= Ÿ a b x m H1- xl n-m x Ÿ 0 1 x m H1- xl n-m x =B b, m+1, n-m+1d Beispiel: Die Zufallsvariable X sei im 1D gleichverteilt, die Zufallsvariable Y sei im X D gleichverteilt (man beachte, dass es sich bei diesem Intervall um ein Intervall mit zufälliger Länge handelt). Man ermittle die Verteilungsdichte von Y. Lösung: Die Zufallsvariable Y besitzt offenbar den Träger Y =@0, 1D. Aus der Angabe entnimmt man außerdem X 1<D und Y 8X=x< x<d. Unter Verwendung des Satzes von der totalen Wahrscheinlichkeit in
12 98 18_Bedingte_Verteilung.nb differenzieller Form (die Ereignisses 8X x + xd< bilden ein "infinitesimales" vollständiges Ereignissystem) ergibt sich damit für die von uns gesuchte Verteilungsdichte (man beachte, dass im Fall x< y œ@y, y+ yd< 8X = x<d=0 ist) 1 œ@y, y+ yd<d= 1 y Ÿ œ@y, y+ yd< 8X = œ@x, x+ xd<d= = Ÿ y 1 1 x=-log@yd für 0 y 1 x Dieses Ergebnis erhält man natürlich auch unter Verwendung von Mathematica: Integrate@PDF@UniformDistribution@80, x<d, yd PDF@UniformDistribution@80, 1<D, xd, 8x, 0, 1<, AssumptionsÆ80 < y < 1<D Log@yD
10 Bedingte Wahrscheinlichkeit
10 Bedingte Wahrscheinlichkeit Vor allem dann, wenn man es mit mehrstufigen Zufallsexperimenten zu tun hat, kommt dem Begriff der bedingten Wahrscheinlichkeit eine bedeutende Rolle zu. Wir klären dazu
Mehr11 Unabhängige Ereignisse
11 Unabhängige Ereignisse In engem Zusammenhang mit dem Begriff der bedingten Wahrscheinlichkeit steht der Begriff der Unabhängigkeit von Ereignissen. Wir klären zuerst, was man unter unabhängigen Ereignissen
Mehr12 Zufallsvariable und Verteilungen
12 Zufallsvariable und Verteilungen VariationenMitWiederholung@n_Integer, k_integerd := Distribute@Table@Table@i, 8i, 1, n
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
Mehr13 Diskrete Verteilungen
13 Diskrete Verteilungen DiscreteEmpiricalPDF@daten_, z_d := Module@8n, min, max, uni
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
Mehr8 Verteilungsfunktionen und Dichten
8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man
MehrDie Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten
Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrMathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung
Mathematik für Informatiker III im WS 5/6 Musterlösung zur. Übung erstellt von K. Kriegel Aufgabe : Wir betrachten den Wahrscheinlichkeitsraum der Punkte P =(a, b) aus dem Einheitsquadrat [, ] [, ] mit
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrMathematik II Frühjahrssemester 2013
Mathematik II Frühjahrssemester 2013 Prof. Dr. Erich Walter Farkas Kapitel 8. Funktionen von mehreren Variablen 8.2 Partielle Differentiation Prof. Dr. Erich Walter Farkas Mathematik I+II, 8.2 Part. Diff.
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 10
Technische Universität München Zentrum Mathematik Mathematik 2 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt Hausaufgaben Aufgabe. Sei f : R 2 R gegeben durch x 2 y für (x, y)
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsraume
Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 24. November 2010 1 Stetige Verteilungen Normalapproximation Gleichverteilung Exponentialverteilung Normalapproximation
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrMathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation
Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr16 Erwartungswert und Varianz
16 Erwartungswert und Varianz KombinationenOhneWiederholung@n_Integer, k_integerd := Permutations@Join@Table@1, 8k
MehrZufallsvariablen: Die allgemeine Definition
KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
MehrKapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrEinführung in die Stochastik 6. Übungsblatt
Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Mehr68 Abschätzungen für Abweichungen vom Erwartungswert
68 Abschätzungen für Abweichungen vom Erwartungswert 68.1 Motivation Mit der Varianz bzw. Standardabweichungen kennen wir bereits ein Maß für die Fluktuation einer Zufallsvariablen um ihren Erwartungswert.
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom
Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrMotivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrKapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen
Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population
MehrDefinition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch
Kapitel 4 Diskrete Verteilungen 4.1 Bernoulli-Verteilung Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch È Üµ ½ für Ü ¼ für Ü ½ ¼ sonst Die Bernoulli-Verteilung
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrBeziehungen zwischen Verteilungen
Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
Mehr(8 + 2 Punkte) = = 0.75
Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrMafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)
Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen
Mehr7 Bedingte Erwartungswerte und Bedingte Verteilungen
7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
MehrKapitel VII. Einige spezielle stetige Verteilungen
Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
Mehr6. Übungsblatt zur Einführung in die Stochastik
Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen
MehrKapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
Mehr6. Funktionen von mehreren Variablen
6. Funktionen von mehreren Variablen Prof. Dr. Erich Walter Farkas 24.11.2011 Seite 1 Funktionen von mehreren Variablen n {1, 2, 3,...} =: N. R n := {(x 1,..., x n) x 1,..., x n R} = Menge aller n-tupel
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
Mehr