20 Charakteristische Funktionen

Größe: px
Ab Seite anzeigen:

Download "20 Charakteristische Funktionen"

Transkript

1 20 Charakteristische Funktionen Viele Probleme im Umgang mit Verteilungen lassen sich einfacher behandeln, wenn man sie in einen geeigneten Raum abbildet. Die Verwendung von derartigen Transformationen ist manchmal dann von Vorteil, wenn sich ein Problem direkt nur schwer behandeln lässt. In diesem Fall versucht man, das ursprüngliche Problem zu transformieren, das transformierte Problem zu lösen und die Lösung des transformierten Problems wieder zurück zu transformieren um auf diese Weise das ursprüngliche Problem zu lösen. Wir befassen uns in diesem Abschnitt mit drei derartigen Transformationen. Die erste dieser Transformationen wird bei diskreten Verteilungen, deren Träger eine Teilmenge von 0 ist, angewendet. Die zweite Transformation verwendet man bei stetigen Verteilungen, deren Träger eine ist. Die dritte Transformationen eignet sich für beliebige stetige Verteilungen. In allen drei Fällen handelt es sich in gewisser Weise um Spezialfälle jener Transformation, welche einer beliebigen Verteilung ihre charakteristische Funktion zuordnet Die erzeugende Funktion Achtung! Unter einer diskreten Verteilung bzw unter einer diskreten Zufallsvariablen verstehen wir in diesem Abschnitt stets eine Verteilung bzw eine Zufallsvariable, deren Träger eine Teilmenge von 0 ist Definition: Ist eine diskrete Verteilung mit der Verteilungsdichte, so heißt s k im Konvergenzbereich dieser Reihe definierte Funktion, die erzeugende Funktion (im Englischen generating function) der Verteilung. Unter der erzeugenden Funktion Z einer diskreten Zufallsvariablen Z versteht man die erzeugende Funktion ihrer Verteilung Z Bemerkung: Bei der erzeugenden Funktion einer diskreten Verteilung handelt es sich offenbar um ein Polynom bzw um eine Potenzreihe, deren Konvergenzradius r 1 ist. Es gilt = 1 Damit können wir die erzeugende Funktion einer diskreten Verteilung im Intervall D-r, r@ beliebig oft gliedweise differenzieren und integrieren. Die Berechnung der erzeugenden Funktion einer diskreten Verteilung läuft auf die Berechnung des Z D von s Z hinaus, wobei die Zufallsvariable Z die Verteilung besitzt. Die erzeugende Funktion einer diskreten Verteilung lässt sich daher mit Mathematica mühelos ermitteln (um "schöne" Formeln zu erhalten, vereinfache man gegebenenfalls die Ergebnisse mit Hilfe von Simplify bzw FullSimplify und verwende dabei die Bedingungen über die Parameter der jeweiligen Verteilung). Handelt es sich bei der diskreten Verteilung um eine in Mathematica implementierte Verteilung, so lässt sich die erzeugende Funktion von aber auch unter Verwendung des Befehls CharacteristicFunction ermitteln: à CharacteristicFunction@distribution, -Â Log@sDD liefert die erzeugende der diskreten, in Mathematica implementierten Verteilung distribution. Warum wir als Argument den Ausdruck -Â Log@sD verwenden wird klar werden, wenn wir uns mit der charakteristischen Funktion einer beliebigen Verteilung befassen (man vergleiche dazu Bemerkung ).

2 20_Charakteristische_Funktionen.nb 99 Wir wollen nun die erzeugenden Funktionen von einigen wichtigen, in Mathematica implementierten diskreten Verteilungen ermitteln: Beispiel: Man ermittle die erzeugende Funktion der diskreten n<d. n<d, - Log@sDD s m + s 1+n H1 m + nl H 1 + sl besitzt die diskrete n<d die 1 n+m-1 Ism + s m+1 + +s n M= s n+1 - s m M Hn-m+1LHs-1L Beispiel: Man ermittle die erzeugende Funktion der kd. CharacteristicFunction@BinomialDistribution@n, pd, - Log@sDD H1 p + p sl n besitzt die pd die n K n k O pk H1- pl n-k s k =H1- p+ p sl n Beispiel: Man ermittle die erzeugende Funktion der negativen pd. CharacteristicFunction@NegativeBinomialDistribution@n, pd, - Log@sDD p n 1 H1 pl s besitzt die negative pd die n+k- 1 K n-1 O pn H1- pl k s k = p n H1- s+ p sl n Diese Potenzreihe konvergiert offenbar für alle s œd- r, r@ mit r = 1 êh1- pl Beispiel: Man ermittle die erzeugende Funktion der

3 100 20_Charakteristische_Funktionen.nb - H 1+sL λ besitzt die die -l l k k! sk = lhs-1l Diese Potenzreihe konvergiert offenbar für alle sœ. Die erzeugenden Funktionen besitzen eine Reihe von interessanten Eigenschaften: Satz: Ist eine diskrete Verteilung, so gilt für alle nœ 1 n! Eine diskrete Verteilung ist somit durch ihre erzeugende Funktion vollständig bestimmt - oder anders ausgedrückt - die erzeugenden Funktionen zweier diskreter Verteilungen stimmen genau dann überein, wenn die beiden Verteilungen überein stimmen. Beweis: Die erzeugende Funktion ist jedenfalls im Intervall D-1, 1@ beliebig oft differenzierbar. Damit gilt für alle nœ 0 und alle sœd-1, 1@ was offenbar HnL s s k = k=n khk- 1L Hk- n+ s k-n zur Folge Satz: Ist Z eine diskrete Zufallsvariable, so gilt für alle nœ mit der Eigenschaft, dass die n-te Potenz von Z integrierbar HZ - 1LHZ - 2L HZ - n+ 1LD= Z Man nennt diesen Erwartungswert das n-te faktorielle Moment von Z. Ist Z integrierbar bzw quadratisch integrierbar, so gilt Z Z ''@1D+ Z Z 2 Beweis: Die erzeugende Funktion Z ist bekanntlich im Intervall D-1, 1@ beliebig oft differenzierbar. Damit gilt für alle nœ und alle sœd-1, 1@ HnL n s n s k = k=n khk- 1L Hk- n+ 1L s k-n

4 20_Charakteristische_Funktionen.nb 101 Bei einer Reihe mit lauter positiven Gliedern darf man die Limesbildung und die Summation vertauschen. Außerdem ist eine Potenzreihe, welche an der Stelle 1 konvergiert, an dieser Stelle linksseitig stetig. Also gilt HnL HnL k=n khk- 1L Hk- n+1l s k-n = = k=n khk- 1L Hk- n+ HZ - 1LHZ - 2L HZ - n+ 1LD Ist speziell Z integrierbar bzw quadratisch integrierbar, so folgt daraus und k=1 k ' HZ - 1LD= k=2 khk- 1L Z AZ 2 2 HZ 2 = Z ''@1D+ Z Z Satz: Sind die beiden diskreten Zufallsvariablen X und Y unabhängig, so gilt für alle s aus dem Konvergenzbereich der erzeugenden Funktion X+Y der Summe X + Y dieser beiden Zufallsvariablen Für zwei beliebige diskrete Verteilungen und gilt @sd Beweis: Für alle s aus dem Konvergenzbereich der erzeugenden Funktion X+Y gilt wegen Satz X+Y X s Y X Y D= Es folgen wieder einige Beispiele:

5 102 20_Charakteristische_Funktionen.nb Beispiel: Von der diskreten Zufallsvariablen Z ist bekannt, dass für alle kœ 0 die = k<d proportional zu g k ist (wobei 0<g< 1 vorausgesetzt wird). Man berechne den von Z. Lösung: Natürlich kann diese Frage mit den üblichen Methoden gelöst werden. Wir zeigen nun aber, wie sich diese Fragestellung unter Verwendung der erzeugenden Funktion behandeln lässt: Aus der Angabe entnimmt man, dass für alle kœ 0 = k<d=ag k gilt, wobei der Proportionalitätsfaktor a noch unbekannt ist. Damit gilt für die erzeugende Funktion von s k = ag k s k a = 1-g s Nun ist aber bekanntlich was a=1-g zur Folge hat. Wegen Satz gilt Z ag H1-gL Beispiel: Von der diskreten Zufallsvariablen Z ist bekannt, dass für alle kœ 0 die = k<d der Rekursionsbeziehung 2D=a 1D+ b genügen, wobei a+ b+ ist. Man berechne die = 2<D sowie den von Z. Lösung: Für die erzeugende Funktion von Z gilt s+ Z s k = s+ Ha Z 1D+ b 2DL s k = = s+as Z s k + b s 2 s k = und damit = s- b s 2 Z@0D+ s- 1-as- b s 2 wobei zwischen den vier Parametern a und b wegen die Beziehung b- gelten muss. Wegen Satz bzw Satz ergibt sich daher für die = 2<D bzw den von = 2<D= Z ''@0Dê2=aH1- b- 2 H1- Z 1+ b- Z@0D 1-a- b Zur Herleitung dieser beiden Formeln haben wir dabei Mathematica verwendet:

6 20_Charakteristische_Funktionen.nb 103 :=Hf0+f1 s - f0aslêh1 -a s- b s 2 L Simplify@D@GenFun@sD, 8s, 2<D ê. 8sÆ0, f1 Æ 1 - a- b - f0h1 - al<dê2 Simplify@D@GenFun@sD, sd ê. 8sÆ1, f1 Æ 1 - a- b - f0h1 - al<d Clear@GenFunD H 1 + f0l α 2 + f0 β α H 1+f0 +βl 1 + f0 β 1 + α +β Beispiel: Man bestimme die Wahrscheinlichkeit dafür, dass man eine Eintrittskarte erhält, bei der die Summe der ersten und letzten drei Ziffern der Registriernummer gleich sind, wenn diese Registriernummer sechsstellig ist und einen beliebigen Wert zwischen und annehmen kann. Lösung: Die Zufallsvariable X i, welche die i-te Stelle einer zufällig ausgewählten Registriernummer bezeichnet, ist offenbar auf der Menge 81, 2,, 9< gleichverteilt. Außerdem sind die Zufallsvariablen X 1, X 2,, X 6 vollständig unabhängig. Wegen Satz besitzen die Zufallsvariablen Y = X 1 + X 2 + X 3 und Z = X 4 + X 5 + X 6 die erzeugenden Funktionen bzw Für die Wahrscheinlichkeit dafür, dass die Summe X der ersten drei Ziffern und die Summe Y der letzten drei Ziffern einer zufällig ausgewählten Registriernummer übereinstimmen, gilt auf Grund von = Y<D= 27 = = k<d= k=3 = = Y = 27<D Bei der von uns gesuchten = Y<D handelt es sich offenbar um den Koeffizient von s 27 der erzeugenden Funktion Dieser Koeffizient lässt sich mit den Befehlen CharacteristicFunction, Apart (damit wird die erzeugende Funktion der Gleichverteilung auf der Menge 81, 2,, 9< in ein Polynom umgeformt) und Coefficient (damit lassen sich die Koeffizienten eines Polynoms ermitteln) mühelos berechnen: CoefficientBApart@CharacteristicFunction@DiscreteUniformDistribution@81, 9<D, - Log@sDDD 6, s, 27Fêê N Beispiel: Die diskreten Zufallsvariablen N, X 1, X 2, seien vollständig unabhängig, die Zufallsvariablen X 1, X 2, seien identisch verteilt mit der (gleichen) erzeugenden Funktion X. Man ermittle die erzeugende Funktion Z der Zufallsvariablen Z = X 1 + X X N. Lösung: Für alle s aus dem Konvergenzbereich von Z folgt aus dem Satz von der totalen Wahrscheinlichkeit zusammen mit Satz und Satz Z X 1 +X 2 + +X ND= X 1 +X 2 + +X N 8N = = n<d= = X 1 +X 2 + = n<d= X 1 X X = n<d=

7 104 20_Charakteristische_Funktionen.nb = n=0 = n<d= Beispiel: Wie groß ist die Wahrscheinlichkeit dafür, beim Würfeln mit n = 8 Würfeln die Augensumme m=30 zu erzielen? Lösung: Wir bezeichnen mit X i die mit dem i-ten Würfel gewürfelte Augenzahl und mit Z = X 1 + X X n die dabei erzielte Augensumme. Da die Zufallsvariablen X 1, X 2,, X n vollständig unabhängig sind, gilt wegen Satz für die erzeugende Funktion von Z offenbar X Die von uns gesuchte = m<d entspricht dem Koeffizienten von s m der erzeugenden Funktion und lässt sich (man vergleiche Beispiel ) mit Hilfe von Mathematica mühelos berechnen: n = 8; m=30; CoefficientAApart@CharacteristicFunction@DiscreteUniformDistribution@81, 6<D, - Log@sDDD n, s, meêê N Clear@n, md Der Begriff der erzeugenden Funktion lässt sich folgendermaßen verallgemeinern: Definition: Ist f =8 f 0, f 1, f 2, < eine Folge von reellen Zahlen, so nennt man die durch fk s k im Konvergenzbereich dieser Reihe definierte Funktion f die erzeugende Funktion der Folge f. Damit entspricht die erzeugende Funktion Z einer diskreten Zufallsvariablen Z offenbar der erzeugenden Funktion f der Folge f =8 <. Analog zu Satz gilt für alle nœ 0 wieder f n = 1 n! f Beispiel: Sei Z eine diskrete Zufallsvariable und sei > > > 2<D, <. Man zeige, dass zwischen der erzeugenden Funktion Z der Zufallsvariablen Z und der erzeugenden Funktion g der Folge g für alle s aus dem Intervall D-1, 1@ die folgende Beziehung besteht 1- Z@sD 1-s Lösung: Da alle Koeffizienten der erzeugenden Funktion g durch 1 beschränkt sind, konvergiert diese Potenzreihe jedenfalls für alle s aus dem Intervall D-1, 1@. Für diese s gilt aber > k<d s k > k<d s k+1 = > 0<D- k=1 > k- > k<dl s k = = = 0<D- = k<d s k = 1-

8 20_Charakteristische_Funktionen.nb Beispiel: A 1, A 2,, A n seien vollständig unabhängige Ereignisse. Gesucht ist die Wahrscheinlichkeit dafür, dass höchstens m dieser Ereignisse eintreten. Lösung: Die Zufallsvariable Z gebe an, wieviele der Ereignisse A 1, A 2,, A n eintreten. Mit den Abkürzungen p i i D und q i = i D ergibt sich für die erzeugende Funktion von Z = k<d s k = n genau k der A 1, A 2,, A n treten ein >D sk = n i=1 Hq i + p i sl Für die erzeugende Funktion h der Folge n<d< der von uns gesuchten Wahrscheinlichkeiten gilt daher mit den in Beispiel verwendeten Bezeichnungen für alle sœd- 1, 1@ k<d s k = n > k<dl s k = n s k - n > k<dl s k = = 1+s+s 2 + +s n - 1-sn+1 1-s - 1- Z@sD = n i=1hq i + p i sl- s n+1 1-s 1-s Für beliebige Wahrscheinlichkeiten p 1, p 2,, p n und ein beliebiges m n lässt sich die gesuchte m<d (man vergleiche Beispiel ) mühelos mit Hilfe von Mathematica ermitteln. Beispielsweise gilt: p =80.2, 0.4, 0.1, 0.6, 0.4, 0.2, 0.6, 0.4, 0.2, 0.5<; n = Length@pD; m=4; GenFun@s_D :=HApply@Times, H1-p+s pld - s n+1 LêH1-sL; Coefficient@Apart@GenFun@sDD, s, md Clear@p, n, m, GenFunD Die Laplace-Transformation Achtung! Wir befassen uns in diesem Abschnitt nur mit stetigen Verteilungen bzw stetigen Zufallsvariablen, deren Träger eine ist Definition: Ist eine stetige Verteilung mit der Verteilungsdichte, so heißt die 0 -s definierte Funktion, die Laplace-Transformierte der Verteilung. Unter der Laplace-Transformierten Z einer stetigen Zufallsvariablen Z versteht man die Laplace-Transformierte ihrer Verteilung Z Bemerkung: Für die Laplace-Transformierte einer stetigen Verteilung gilt 0 -s z Ÿ Aus dem Satz von der beschränkten Konvergenz (auf den wir hier nicht näher eingehen wollen) folgt daraus, dass die Laplace-Transformierte einer stetigen Verteilung im Intervall D beliebig oft differenzierbar ist und dabei die Operationen Differenziation und Integration vertauscht werden dürfen. Im Prinzip lässt sich die Laplace-Transformierte einer stetigen Verteilung mit der Verteilungsdichte mit Hilfe von Mathematica ermitteln, indem man einfach das in der Definition auftretende Integral auswertet. Einfacher geht es, wenn man dazu den in Mathematica implementierten Befehl LaplaceTransform verwendet. Handelt es sich bei der stetigen Verteilung um eine in Mathematica implementierte Verteilung, so lässt sich die Laplace-Trans-

9 106 20_Charakteristische_Funktionen.nb formierte von auch unter Verwendung des Befehls CharacteristicFunction bestimmen: z, sd liefert die der stetigen Verteilung mit der à  sd liefert die der stetigen, in Mathematica implementierten Verteilung distribution. Warum wir als Argument den Ausdruck  s verwenden, wird klar werden, wenn wir uns mit der charakteristischen Funktion einer beliebigen Verteilung befassen (man vergleiche dazu Bemerkung ). Wir wollen nun die Laplace-Transformierte von einigen wichtigen, in Mathematica implementierten stetigen Verteilungen ermitteln: Beispiel: Man ermittle die Laplace-Transformierte der b<d (mit 0 a<b). CharacteristicFunction@UniformDistribution@8a, b<d, sd a s + b s H a+bl s besitzt die b<d a b - s z 1 b-a z= -a s - -b s shb-al Beispiel: Man ermittle die Laplace-Transformierte der b<d (mit 0 a<b). CharacteristicFunction@TriangularDistribution@8a, b<d, sd 4 a s 2 b s 2 2 Ha bl 2 s 2 besitzt die b<d die - s z 4Hz-aL a Hb-aL 2 z+ b Ÿ - s z 4H b- zl Ha+bLê2 Hb-aL 2 z= 4H -a sê2 - -b sê2 2 L s 2 Hb-aL 2

10 20_Charakteristische_Funktionen.nb Beispiel: Man ermittle die Laplace-Transformierte der sd λ s + λ besitzt die 0 -s z l -l z z= l l+s Beispiel: Man ermittle die Laplace-Transformierte der Gammaverteilung amma@a, ld. CharacteristicFunction@GammaDistribution@a, ld, sd H1 + s λl α besitzt die Gammaverteilung amma@a, ld die Laplace-Transformierte 1 G@aD Ÿ -s z l -a z a-1 -zêl z=h1+lsl -a Beispiel: Man ermittle die Laplace-Transformierte der Chi-Quadrat Verteilung hi@nd. CharacteristicFunction@ChiSquareDistribution@nD, sd H1 + 2 sl nê2 besitzt die Chi-Quadrat Verteilung hi@nd die Laplace-Transformierte 1 G@nê2D Ÿ -s z 2 -nê2 -zê2 z nê2-1 z=h1+ 2 sl -nê Beispiel: Man ermittle die Laplace-Transformierte der Extremwertverteilung xtrem@m, bd. CharacteristicFunction@ExtremeValueDistribution@m, bd, sd s µ Gamma@1+sβD

11 108 20_Charakteristische_Funktionen.nb besitzt die Extremwertverteilung bd die 1 b Ÿ 0 -s z Hm-zLêb- Hm-zLêb z= -m s G@1+ b sd Die Laplace-Transformation besitzt eine Reihe von interessanten Eigenschaften. Ohne auf den Beweis näher eingehen zu können (man benötigt dazu ein tiefliegendes Wissen über komplexe Analysis), beginnen wir mit der sogenannten Umkehrformel: Satz (Umkehrformel): Ist eine stetige Verteilung mit Verteilungsdichte, so gilt für alle 1 2p Ÿ g+â  s z s wobei g eine beliebige Konstante ist, welche so gewählt werden muss, dass die Realteile aller singulären Stellen von kleiner als g sind. Eine stetige Verteilung ist somit durch ihre Laplace-Transformierte vollständig bestimmt - oder anders ausgedrückt - die Laplace-Transformierten zweier stetiger Verteilungen stimmen genau dann überein, wenn die beiden Verteilungen überein stimmen. Im Prinzip lässt sich die Verteilungsdichte einer stetigen Verteilung aus der Laplace-Transformierten mit Hilfe von Mathematica ermitteln, indem man einfach dieses komplexe Integral auswertet. Einfacher geht es, wenn man dazu den in Mathematica implementierten Befehl InverseLaplaceTransform verwendet: à s, zd berechnet die Verteilungsdichte jener stetigen Verteilung, welche die Laplace-Transformierte besitzt. Wir zeigen die Verwendung der Befehle LaplaceTransform und InverseLaplaceTransform an einem Beispiel (man beachte allerdings, dass diese beiden Befehle leider oft nicht zum Ziel führen, da Mathematica die dabei auftretenden Integrale nur in seltenen Fällen tatsächlich berechnen kann): Beispiel: Für die Gammaverteilung berechne man die Laplace-Transformierte mit Hilfe des Befehls LaplaceTransform. Anschließend ermittle man aus dieser Laplace-Transformierten wieder die Verteilungsdichte der Gammaverteilung unter Verwendung des Befehls InverseLaplaceTransform. Lösung: Die Gammaverteilung amma@a, ld besitzt die Verteilungsdichte f@z_d := PDF@GammaDistribution@a, ld, zd; f@zd z λ z 1+α λ α Gamma@αD a) Wendet man auf diese Verteilungsdichte den Befehl LaplaceTransform an, so erhält man die Laplace-Transformierte der Gammaverteilung: lt@s_d := LaplaceTransform@f@zD, z, sd; lt@sd 1 s + λ α λ α b) Wendet man auf diese Laplace-Transformierte den Befehl InverseLaplaceTransform an, so erhält man wieder die Verteilungsdichte der Gammaverteilung:

12 20_Charakteristische_Funktionen.nb 109 s, zd z λ z 1+α λ α Gamma@αD Clear@f, ltd Satz: Ist Z eine stetige Zufallsvariable, so gilt für alle nœ mit der Eigenschaft, dass die n-te Potenz von Z integrierbar n D=H-1L n Z Ist Z integrierbar bzw quadratisch integrierbar, so gilt Z Z ''@0D-H Z 2 Beweis: Die Laplace-Transformierte Z einer stetigen Zufallsvariablen Z ist im Intervall D bekanntlich beliebig oft differenzierbar, wobei die beiden Operationen Differenziation und Integration vertauscht werden dürfen. Damit gilt für alle nœ und alle sœd Z n s n Ÿ 0 -s z z=ÿ 0 n s n H -s z z=h-1l n Ÿ 0 z n -s z z Falls Z n integrierbar ist, so ist die n-te Ableitung der Laplace-Transformierten an der Stelle s= 0 rechtsseitig stetig und die beiden Operationen Limesbildung und Integration dürfen vertauscht werden (diese Tatsache folgt ebenfalls aus dem Satz von der beschränkten Konvergenz). Damit gilt Z 0 Z n lims 0 Ÿ 0 z n -s z z=h-1l n Ÿ 0 lims 0 Hz n -s z z= =H-1L n Ÿ 0 z n z=h-1l n D Ist speziell Z integrierbar bzw quadratisch integrierbar, so folgt daraus und Z 2 D= 2 2 = Z ''@0D-H Z 2

13 110 20_Charakteristische_Funktionen.nb Vollständig analog zu Satz zeigt man Satz: Sind die beiden stetigen Zufallsvariablen X und Y unabhängig, so gilt für alle s>0 Für zwei beliebige stetige Verteilungen und gilt @sd Es folgen wieder einige Beispiele: Beispiel: Von der stetigen Zufallsvariable Z ist bekannt, dass für alle z 0 die Verteilungsdichte proportional zu g z ist (wobei 0<g< 1 vorausgesetzt wird). Man berechne den von Z. Lösung: Natürlich kann diese Frage mit den üblichen Methoden gelöst werden. Wir zeigen aber wieder, wie sich diese Fragestellung unter Verwendung der Laplace-Transformation behandeln lässt: Aus der Angabe entnimmt man, dass für alle s 0 offenbar z gilt, wobei der Proportionalitätsfaktor a noch unbekannt ist. Damit gilt für die Laplace-Transformierte von Z 0 -s z ag z z= a s-log@gd Nun ist aber bekanntlich was a=-log@gd zur Folge hat. Wegen Satz gilt damit ' HLog@gDL Beispiel: Unter Verwendung der Laplace-Transformation zeige man die beiden Faltungsformeln amma@a, ld* amma@b, ld= amma@a+ b, ld hi@md* hi@nd= hi@m+nd Satz und Satz müssen wir nur zeigen, dass das Produkt der Laplace-Transformierten der beiden Verteilungen auf der linken Seite mit der Laplace-Transformierten der Verteilung auf der rechten Seite übereinstimmt: CharacteristicFunction@GammaDistribution@a, ld, sd CharacteristicFunction@GammaDistribution@ b, ld, sd == CharacteristicFunction@GammaDistribution@a + b, ld, sd êê FullSimplify True CharacteristicFunction@ChiSquareDistribution@mD, sd CharacteristicFunction@ChiSquareDistribution@nD, sd ä CharacteristicFunction@ChiSquareDistribution@m + nd, sd êê FullSimplify True Beispiel: Die Zufallvariablen X 1, X 2, X 3 seien vollständig unabhängig und exponentialverteilt mit den Parametern l 1 = 1 bzw l 2 = 2 bzw l 3 = 3. Gesucht ist die Verteilungsdichte von Z = X 1 + X 2 + X 3.

14 20_Charakteristische_Funktionen.nb 111 Lösung: Für alle s>0 gilt wegen Satz zusammen mit Beispiel X1 +X s Wendet man nun auf Z die Umkehrformel an 2 2+ s 3 3+ s = 6 H1+sLH2+ slh3+sl InverseLaplaceTransform@6 êhh1 + sl H2 + sl H3 + sll, s, zd 3 3 z I 1+ z M 2 so erhält man direkt die gesuchte Verteilungsdichte Z 3H-1+ z L 2-3 z für z 0 0 sonst Der Begriff der Laplace-Transformierten lässt sich folgendermaßen verallgemeinern: Definition: Ist f eine stetige und beschränkte in, so nennt man die durch 0 -s z f@zd z auf D definierte Funktion f die Laplace-Transformierte der Funktion f. Damit entspricht die Laplace- Transformierte Z einer stetigen Zufallsvariablen Z der Laplace-Transformierten Z ihrer Verteilungsdichte Beispiel: Sei Z eine stetige Zufallsvariable. Man zeige, dass zwischen der Laplace-Transformierten der Verteilungsfunktion Z und der LaplaceTransformierten der Verteilungsdichte Z von Z für alle s>0 die folgende Beziehung 1 Lösung: Partielle Integration liefert für alle -s z z=- 0 s -s z z= z=0 + s Ÿ -s z z= 0

15 112 20_Charakteristische_Funktionen.nb 20.3 Die Fourier-Transformation Achtung! Wir befassen uns in diesem Abschnitt nur mit stetigen Verteilungen bzw stetigen Zufallsvariablen Definition: Ist eine stetige Verteilung mit der Verteilungsdichte, so heißt die - Â s z=ÿ - Cos@s z+âÿ - Sin@s z auf definierte komplexwertige Funktion, die Fourier-Transformierte der Verteilung. Unter der Fourier- Transformierten Z einer stetigen Zufallsvariablen Z versteht man die Fourier-Transformierte ihrer Verteilung Z. Zwischen der einer stetigen Verteilung, deren Träger eine ist, und der dieser Verteilung besteht für alle s 0 offenbar sd Bemerkung: Für die Fourier-Transformierte einer stetigen Verteilung gilt = Ÿ - Â s z Ÿ Aus dem Satz von der beschränkten Konvergenz folgt daraus, dass die Fourier-Transformierte einer stetigen Verteilung in ganz beliebig oft differenzierbar ist und dabei die Operationen Differenziation und Integration vertauscht werden dürfen. Im Prinzip lässt sich die Fourier-Transformierte einer stetigen Verteilung mit der Verteilungsdichte mit Hilfe von Mathematica ermitteln, indem man einfach das in der Definition auftretende Integral auswertet. Einfacher geht es, wenn man dazu den in Mathematica implementierten Befehl FourierTransform verwendet. Handelt es sich bei der stetigen Verteilung um eine in Mathematica implementierte Verteilung, so lässt sich die Fourier-Transformierte von auch unter Verwendung von CharacteristicFunction bestimmen: à z, sd 2p liefert die der stetigen Verteilung mit Man beachte, dass der von Mathematica mit dem Befehl FourierTransform ermittelte Ausdruck noch mit 2 p multipliziert werden muss, um die im Rahmen der Stochastik verwendete Version der Fourier-Transformierten zu erhalten. à CharacteristicFunction@distribution, sd liefert die der stetigen, in Mathematica implementierten Verteilung distribution. Wir wollen nun die Fourier-Transformierte von einigen wichtigen, in Mathematica implementierten stetigen Verteilungen ermitteln (man beachte, dass sich die Fourier-Transformierte vieler Verteilungen nicht mit Hilfe elementarer Funktionen ausdrücken lässt): Beispiel: Man ermittle die Fourier-Transformierte der b<d.

16 20_Charakteristische_Funktionen.nb 113 b<d, sd J a s + b s N H a+bl s besitzt die b<d a b  s z 1 b-a z= ÂH Âas -  b s L shb-al Beispiel: Man ermittle die Fourier-Transformierte der b<d. CharacteristicFunction@TriangularDistribution@8a, b<d, sd a s b s Ha bl 2 s 2 besitzt die b<d Ha+bLê2  s z 4Hz-aL a Hb-aL 2 z+ b Ÿ Ha+bLê2  s z 4Hb- zl Hb-aL 2 z =- 4 H  a sê2 -  b sê2 L 2 s 2 Hb-aL Beispiel: Man ermittle die Fourier-Transformierte der ld. CharacteristicFunction@LaplaceDistribution@a, ld, sd s α 1 + s 2 λ 2 besitzt die ld -  s z 1 2l - z-aêl z= Âas 1+l 2 s 2

17 114 20_Charakteristische_Funktionen.nb Beispiel: Man ermittle die Fourier-Transformierte der sd. sd, sd s µ s2 σ 2 2 besitzt die sd - Â s z 1 2p s -Hz-mL2 êh2s 2 L z= Âm s -s 2 s 2 ê Beispiel: Man ermittle die Fourier-Transformierte der Extremwertverteilung xtrem@m, bd. CharacteristicFunction@ExtremeValueDistribution@m, bd, sd s µ Gamma@1 sβd besitzt die Extremwertverteilung xtrem@m, bd die Fourier-Transformierte - Â s z 1 b Hm-zLêb- Hm-zLêb z= Âm s G@1-Â b sd Die Fourier-Transformation besitzt eine Reihe von interessanten Eigenschaften. Ohne auf den Beweis näher eingehen zu können, beginnen wir wieder mit der sogenannten Satz (Umkehrformel): Ist eine stetige Verteilung mit Verteilungsdichte, so gilt für alle 1 2p Ÿ + -Â s z s Eine stetige Verteilung ist somit durch ihre Fourier-Transformierte vollständig bestimmt - oder anders ausgedrückt - die Fourier-Transformierten zweier stetiger Verteilungen stimmen genau dann überein, wenn die beiden Verteilungen überein stimmen. Im Prinzip lässt sich die Verteilungsdichte einer stetigen Verteilung aus der Fourier-Transformierten mit Hilfe von Mathematica ermitteln, indem man einfach dieses Integral auswertet. Einfacher geht es, wenn man dazu den in Mathematica implementierten Befehl InverseFourierTransform verwendet: à s, zd ê 2p berechnet die Verteilungsdichte jener stetigen Verteilung, welche die Fourier-Transformierte besitzt. Man beachte, dass der von Mathematica mit dem Befehl InverseFourierTransform ermittelte Ausdruck noch durch 2p dividiert werden muss, um die gesuchte Verteilungsdichte zu erhalten. Wir zeigen die Verwendung der Befehle FourierTransform und InverseFourierTransform an einem Beispiel (man beachte wieder, dass diese beiden Befehle leider oft nicht zum Ziel führen, da Mathematica die dabei auftretenden Integrale nur in seltenen Fällen berechnen kann):

18 20_Charakteristische_Funktionen.nb Beispiel: Für die Normalverteilung berechne man die Fourier-Transformierte mit Hilfe des Befehls FourierTransform. Anschließend ermittle man aus dieser Fourier-Transformierten wieder die Verteilungsdichte der Normalverteilung unter Verwendung des Befehls InverseFourierTransform. Lösung: Die sd besitzt die Verteilungsdichte := sd, zd; Hz µl2 2 σ 2 2 π σ a) Wendet man auf diese Verteilungsdichte den Befehl FourierTransform an und multipliziert man das Ergebnis mit 2p, so erhält man die Fourier-Transformierte der Normalverteilung: ft@s_d := FourierTransform@f@zD, z, s, Assumptions-> 8s > 0<D Sqrt@2 pd; ft@sd s µ s2 σ 2 2 b) Wendet man auf diese Fourier-Transformierte den Befehl InverseFourierTransform an und dividiert man das Ergebnis durch 2p, so erhält man wieder die Verteilungsdichte der Normalverteilung: InverseFourierTransform@ft@sD, s, z, Assumptions Æ 8s > 0<Dê Sqrt@2 pd Hz µl2 2 σ 2 1 σ 2 2 π Clear@f, ftd Analog zu Satz und Satz zeigt man Satz: Ist Z eine stetige Zufallsvariable, so gilt für alle nœ, welche die Eigenschaft besitzen, dass die n-te Potenz von Z integrierbar n D=H-ÂL n Z Ist Z integrierbar bzw quadratisch integrierbar, so gilt Z '@0D Z ''@0D+H Z '@0DL 2

19 116 20_Charakteristische_Funktionen.nb Satz: Sind die beiden stetigen Zufallsvariablen X und Y unabhängig, so gilt für alle sœ Für zwei beliebige stetige Verteilungen und gilt @sd Es folgen wieder einige Beispiele: Beispiel: Man zeige: Eine stetige Zufallsvariable Z besitzt genau dann eine symmetrische Verteilungsdichte, wenn ihre Fourier-Transformierte reell ist. Lösung: a) Besitzt Z eine symmetrische Verteilungsdichte Z, so gilt für alle sœ -  s z z=ÿ - 0  s z z+ÿ 0  s z z= =Ÿ 0 H - s z +  s z L z=2ÿ 0 Cos@s zd zœ b) Ist die Fourier-Transformierte von Z reell, so gilt für alle sœ und damit - Cos@s zd z und Ÿ - Sin@s zd z=0 -  s z z=ÿ - Cos@s zd z+ÿ - Sin@s zd z= =Ÿ - Cos@-s zd z-ÿ - Sin@-s zd z=ÿ - Cos@s zd z= Die Fourier-Transformierten von Z und -Z stimmen überein, also besitzen Z und -Z die gleiche Verteilung, womit gezeigt ist, dass die Verteilungsdichte Z von Z symmetrisch ist Beispiel: Für die Fourier-Transformierten der beiden Zufallsvariablen X bzw Y gilt 1+Âs 1+s 2 bzw 1-Âs 1+s 2 Gesucht sind ihre Verteilungsdichten X bzw Y. Lösung: Der Befehl InverseFourierTransform liefert (nach langer Rechnung) InverseFourierTransform@H1 + slêh1 + s 2 L, s, z, Assumptions Æ8z 0<DêSqrt@2pD InverseFourierTransform@H1 + slêh1 + s 2 L, s, z, Assumptions Æ8z < 0<DêSqrt@2pD z 0 und

20 20_Charakteristische_Funktionen.nb slêh1 + s 2 L, s, z, Assumptions Æ8z 0<DêSqrt@2pD InverseFourierTransform@H1 - slêh1 + s 2 L, s, z, Assumptions Æ8z < 0<DêSqrt@2pD 0 z also gilt -z für z>0 0 sonst 0 für z>0 bzw z sonst Beispiel: Die Zufallsvariablen X 1, X 2,, X n seien vollständig unabhängig und identisch verteilt mit der (für alle i œ 81, 2,, n< gleichen) Verteilungsdichte 1 pi1+x 2 M Gesucht ist die Verteilungsdichte Z ihrer Summe Z = X 1 + X X n Lösung: a) Wir überprüfen zuerst, ob es sich bei der positiven Funktion X tatsächlich um eine Verteilungsdichte handelt: Integrate@1êHpH1 + x 2 LL, 8x, -, <D 1 b) Für die Fourier-Transformierte von Z gilt wegen Satz Unter Verwendung der Befehle FourierTransform und InverseFourierTransform lässt sich die gesuchte Verteilungsdichte Z von Z damit leicht ermitteln: ft@s_d := FourierTransform@1êHpH1 + x 2 LL, x, sd Sqrt@2pD InverseFourierTransform@Hft@sDL n, s, zdêsqrt@2pd Clear@ftD n π In 2 + z 2 M 20.4 Die charakteristische Funktion Wir beginnen wieder mit einer Definition:

21 118 20_Charakteristische_Funktionen.nb Definition: Ist eine diskrete bzw stetige Verteilung mit der Verteilungsdichte, so heißt die zœ  s -  s z auf definierte komplexwertige Funktion, die charakteristische Funktion der Verteilung. Unter der charakteristischen Funktion Z einer diskreten bzw stetigen Zufallsvariablen Z versteht man die charakteristische Funktion ihrer Verteilung Z. Ist eine beliebige Verteilung mit der Verteilungsfunktion, so definiert man ganz -  s z zd wobei das dabei auftretende Integral als Lebesque-Stieltjes-Integral zu verstehen ist. Im Prinzip lässt sich die charakteristische Funktion einer diskreten bzw stetigen Verteilung mit der Verteilungsdichte mit Hilfe von Mathematica ermitteln, indem man einfach die in der Definition auftretende Summe bzw das dort auftretende Integral auswertet. Handelt es sich bei der diskreten bzw stetigen Verteilung um eine in Mathematica implementierte Verteilung, so lässt sich die charakteristische Funktion von in vielen Fällen auch unter Verwendung des Befehls CharacteristicFunction bestimmen:

22 20_Charakteristische_Funktionen.nb 119 à sd liefert die charakteristische der diskreten bzw stetigen, in Mathematica implementierten Verteilung distribution Bemerkung: Zwischen der erzeugenden Funktion einer diskreten Verteilung, deren Träger eine Teilmenge von 0 ist bzw der Laplace-Transformierten einer stetigen Verteilung, deren Träger eine Teilmenge von [0, [ ist bzw der Fourier-Transformierten einer stetigen Verteilung sowie der charakteristischen Funktion von gelten die Aus der Definition der charakteristischen Funktion folgt unmittelbar: Bemerkung: Besteht zwischen den beiden Zufallsvariablen X und Y die Beziehung Y = a+b X, so  Y s ÂHa+b XL s D=  a s sd Die charakteristische Funktion besitzt eine Reihe von tiefliegenden Eigenschaften, welche in erster Linie für theoretische Untersuchungen von Bedeutung sind. Wir erwähnen diese Eigenschaften ohne Beweise: Satz: Eine Verteilung ist durch ihre charakteristische Funktion vollständig bestimmt - oder anders ausgedrückt - die charakteristischen Funktionen zweier Verteilungen stimmen genau dann überein, wenn die beiden Verteilungen überein stimmen. Die charakteristische Funktion wird vor allem im Zusammenhang mit einer - auch für die Praxis sehr wichtigen - Konvergenzart verwendet: Definition: a) Die Folge H n L nœ von Verteilungen konvergiert schwach gegen die Verteilung, wenn für alle zœ, in denen stetig ist, die Folge H nœ konvergiert. b) Die Folge HZ n L nœ von Zufallsvariablen konvergiert in Verteilung gegen die Zufallsvariable Z, wenn die Folge H Z n L nœ ihrer Verteilungen schwach gegen die Verteilung Z von Z konvergiert. Der direkte Nachweis der schwachen Konvergenz einer Folge von Verteilungen ist oft recht mühsam. In diesem Zusammenhang ist der folgende Satz von großer Bedeutung: Satz: Die Folge H n L nœ von Verteilungen konvergiert genau dann schwach gegen die Verteilung, wenn die Folge H n L nœ ihrer charakteristischen Funktionen punktweise gegen die charakteristische Funktion von konvergiert. An zwei Beispielen wollen wir die Anwendung dieses Satzes sowie die Bedeutung der schwachen Konvergenz insgesamt demonstrieren:

23 120 20_Charakteristische_Funktionen.nb Beispiel: Sei Hp n L nœ eine Folge von Zahlen aus dem Intervall D 0, 1@ mit der Eigenschaft, dass die Folge Hn p n L nœ gegen eine Zahl l>0 konvergiert. Man zeige, dass dann die Folge p n DL nœ der Binomialverteilungen schwach gegen die konvergiert. Damit ist gezeigt, dass sich für große n und kleine p die pd durch die pd approximieren lässt. Lösung: Für die charakteristische Funktion der p n D bzw der gilt CharacteristicFunction@BinomialDistribution@n, pnd, sd CharacteristicFunction@PoissonDistribution@lD, sd J1 pn + s pnn n J 1+ s N λ Nun gilt aber offenbar für alle sœ lim nø H1- p n +  s p n L n = lim nø H1+ n p n H  s - 1L L n = lh Âs -1L n womit unsere Behauptung wegen Satz gezeigt ist. Wir wollen die Behauptung, dass sich für große n und kleine p die pd durch die pd approximieren lässt, auch graphisch veranschaulichen: Manipulate@Plot@8CDF@BinomialDistribution@n, pd, zd, CDF@PoissonDistribution@n pd, zd<, 8z, -1, 3 n p<, PlotStyle Æ 88Thickness@0.015D, Red<, 8Thickness@0.015D, Blue<<, PlotPoints Æ 100, AspectRatioÆ0.5, AxesOrigin Æ8-1, 0<, PlotRange Æ All, ImageSize Æ 8200, 120<D, 8n, 2, 50, 1, Appearance Æ "Labeled"<, 88p, 0.5<, 0.03, 0.5, Appearance Æ "Labeled"<D n 2 p HzL z Beispiel: Für jedes nœ sei Z n =HY n - n plê n ph1- pl, wobei Y n eine mit den Parametern n und p binomialverteilte Zufallsvariable bezeichnet. Man zeige, dass die Folge HZ n L nœ in Verteilung gegen eine

24 20_Charakteristische_Funktionen.nb 1D-verteilte Zufallsvariable Z konvergiert. Damit ist gezeigt, dass sich für große n die pd durch die p, n ph1- pl D approximieren lässt. Lösung: Für die charakteristische Funktion der p n D bzw der 1D gilt CharacteristicFunction@BinomialDistribution@n, pd, sd CharacteristicFunction@NormalDistribution@0, 1D, sd J1 p + s pn n s2 2 Wegen Bemerkung gilt damit für die charakteristische Funktion der Zufallsvariablen Z n (wir verwenden die Abkürzung q=1- p und entwickeln die auftretenden Exponentialfunktionen in eine Reihe) Z n p sê n p q DH1- p+ p Exp@ sê n p q DLn = =Hq Exp@- p sê n p q D+ p Exp@ q sê n p q DL n = =H1- p s 2 êh2 nl- q s 2 êh2 nl+ o@1êndl n =H1- s2 2 n + o@1êndln Mit o@1ênd bezeichnen wir dabei einen Ausdruck, welcher die Eigenschaft lim nø Hn o@1êndl=0 besitzt. Damit gilt für alle sœ lim nø Z nø H1- s2 2 n + o@1êndln = -s2 ê2 = womit unsere Behauptung wegen Satz gezeigt ist. Wir wollen die Behauptung, dass sich für große n die pd durch die p, n ph1- pl D approximieren lässt, auch graphisch veranschaulichen und dabei die maximale Differenz zwischen den beiden Verteilungsfunktionen ermitteln (bei der Berechnung der maximalen Differenz achte man darauf, dass die Verteilungsfunktion der Binomialverteilung eine linksseitig stetige Stufenfunktion ist):

25 122 20_Charakteristische_Funktionen.nb = p H1- pld<, pd, zd, p, sd, zd<, 8z, n p - 2 s, n p + 2 s<, PlotStyle Æ 88Thickness@0.01D, Red<, 8Thickness@0.01D, Blue<<, PlotPoints Æ 100, AspectRatio Æ 0.5, AxesOriginÆ8n p, 0<, PlotRange Æ All, AxesLabel Æ ImageSize Æ 8230, 130<D, Graphics@88Red, Text@"Differenz:", Scaled@80.65, 0.3<DD, Text@Max@Join@ Table@Abs@CDF@BinomialDistribution@n, pd, zd - CDF@NormalDistribution@n p, sd, zdd, 8z, 0, n<d, Table@Abs@CDF@BinomialDistribution@n, pd, z - 1D - CDF@NormalDistribution@n p, sd, zdd, 8z, 0, n<ddd, Scaled@80.87, 0.3<DD<<D<DD, 8n, 1, 1000, 1, Appearance Æ "Labeled"<, 8p, 0.1, 0.9, Appearance Æ "Labeled"<D n 326 p HzL Differenz: z

15 Verteilungsfunktionen

15 Verteilungsfunktionen 15 Verteilungsfunktionen EmpiricalCDF@daten_, _D := Module@8n

Mehr

11 Unabhängige Ereignisse

11 Unabhängige Ereignisse 11 Unabhängige Ereignisse In engem Zusammenhang mit dem Begriff der bedingten Wahrscheinlichkeit steht der Begriff der Unabhängigkeit von Ereignissen. Wir klären zuerst, was man unter unabhängigen Ereignissen

Mehr

18 Bedingte Verteilung

18 Bedingte Verteilung 18 Bedingte Verteilung In diesem Kapitel wollen wir uns mit der Verteilung (Verteilungsdichte, Verteilungsfunktion, Erwartungswert) einer Zufallsvariablen Z befassen, wenn man über die zusätzliche Information

Mehr

3 Relative Häufigkeit

3 Relative Häufigkeit 3 Relative Häufigkeit RelativeTally@liste_D := Module@8h, n, m

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Leitfaden a tx t

Leitfaden a tx t Leitfaden -0.7. Potenz-Reihen. Definition: Es sei (a 0, a, a 2,...) eine Folge reeller Zahlen (wir beginnen hier mit dem Index t 0). Ist x R, so kann man die Folge (a 0, a x, a 2 x 2, a 3 x 3,...) und

Mehr

10 Bedingte Wahrscheinlichkeit

10 Bedingte Wahrscheinlichkeit 10 Bedingte Wahrscheinlichkeit Vor allem dann, wenn man es mit mehrstufigen Zufallsexperimenten zu tun hat, kommt dem Begriff der bedingten Wahrscheinlichkeit eine bedeutende Rolle zu. Wir klären dazu

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Potenzreihen. Potenzreihen sind Funktionenreihen mit einer besonderen Gestalt.

Potenzreihen. Potenzreihen sind Funktionenreihen mit einer besonderen Gestalt. Potenzreihen Potenzreihen sind Funtionenreihen mit einer besonderen Gestalt. Definition. Ist (a ) eine Folge reeller (bzw. omplexer) Zahlen und x 0 R (bzw. z 0 C), dann heißt die Reihe a (x x 0 ) (bzw.

Mehr

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. 2.2. POTENZREIHEN 207 2.2 Potenzreihen. Definitionen Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. Eine Potenzreihe mit Entwicklungspunkt x 0 ist eine Reihe a n x x 0 n. Es gilt: es

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

n=1 a n mit reellen Zahlen a n einen

n=1 a n mit reellen Zahlen a n einen 4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

3.3 Das Abtasttheorem

3.3 Das Abtasttheorem 17 3.3 Das Abtasttheorem In der Praxis kennt man von einer zeitabhängigen Funktion f einem Signal meist nur diskret abgetastete Werte fn, mit festem > und ganzzahligem n. Unter welchen Bedingungen kann

Mehr

Folgen und Reihen von Funktionen

Folgen und Reihen von Funktionen Folgen und Reihen von Funktionen Sehr häufig treten in der Mathematik Folgen bzw. Reihen von Funktionen auf. Ist etwa (f n ) eine Folge von Funktionen, dann können wir uns für ein festes x fragen, ob die

Mehr

Höhere Mathematik für Physiker II

Höhere Mathematik für Physiker II Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm Stochastik im SS 2001 bei Professor Sturm Lernzusammenfassung für die Klausur Hallo! In diesem Text habe ich die wichtigsten Dinge der Stochastikvorlesung zusammengefaÿt, jedenfalls soweit, wie ich bis

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Übungen Ingenieurmathematik

Übungen Ingenieurmathematik Übungen Ingenieurmathematik 1. Übungsblatt: Komplexe Zahlen Aufgabe 1 Bestimmen Sie Real- und Imaginärteil der folgenden komplexen Zahlen: a) z =(3+i)+(5 7i), b) z =(3 i)(5 7i), c) z =( 3+i)( 3+ 3 i),

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Modellfall. Orthogonalität trigonometrischer Funktionen. Anwendungen: f : (0, L) R gegeben.

Modellfall. Orthogonalität trigonometrischer Funktionen. Anwendungen: f : (0, L) R gegeben. Modellfall Anwendungen: Fragen: Digitalisierung / digitale Darstellung von Funktionen, insbesondere für Ton- und Bilddaten Digitale Frequenzfilter Datenkompression: Abspeichern der unteren Frequenzen Lösung

Mehr

April (Voll-) Klausur Analysis I für Ingenieure. Rechenteil

April (Voll-) Klausur Analysis I für Ingenieure. Rechenteil April (Voll-) Klausur Analysis I für Ingenieure en Rechenteil Aufgabe 7 Punkte (a) Skizzieren Sie die 4-periodische Funktion mit f() = für und f() = für (b) Berechnen Sie für diese Funktion die Fourierkoeffizienten

Mehr

Hypothesentest, ein einfacher Zugang mit Würfeln

Hypothesentest, ein einfacher Zugang mit Würfeln R. Brinkmann http://brinkmann-du.de Seite 4..4 ypothesentest, ein einfacher Zugang mit Würfeln Von einem Laplace- Würfel ist bekannt, dass bei einmaligem Wurf jede einzelne der Zahlen mit der Wahrscheinlichkeit

Mehr

Übungen zur Stochastik, Blatt Nr. 1

Übungen zur Stochastik, Blatt Nr. 1 Prof. Dr. A. Stoffel SS 202 Übungen zur Stochastik, Blatt Nr. ) Zwei Würfel werden gleichzeitig oder nacheinander geworfen. a) Schreiben Sie alle Elemente des Grundraums in Form einer Matrix auf. b) Wie

Mehr

Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 10. Übungsblatt. < 0 für alle t > 1. tan(x) tan(0) x 0

Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 10. Übungsblatt. < 0 für alle t > 1. tan(x) tan(0) x 0 KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 03/4 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschläge zum 0. Übungsblatt Aufgabe

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

7.2.1 Zweite partielle Ableitungen

7.2.1 Zweite partielle Ableitungen 72 72 Höhere Ableitungen 72 Höhere Ableitungen Vektorwertige Funktionen sind genau dann differenzierbar, wenn ihre Koordinatenfunktionen differenzierbar sind Es ist also keine wesentliche Einschränkung,

Mehr

14 Lineare Differenzengleichungen

14 Lineare Differenzengleichungen 308 14 Lineare Differenzengleichungen 14.1 Definitionen In Abschnitt 6.3 haben wir bereits eine Differenzengleichung kennengelernt, nämlich die Gleichung K n+1 = K n q m + R, die die Kapitalveränderung

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

23 Die Normalverteilung

23 Die Normalverteilung 23 Die Normalverteilung Unter aller Verteilung tritt die Normalverteilung in den Anwendungen am häufigsten auf. Der Grund dafür ist der zentrale Grenzverteilungssatz. Wir werden diesen zentralen Grenzverteilungssatz

Mehr

Ein Kennzeichen stetiger Funktionen ist es, dass ihre Graphen (evtl. auch nur in Intervallen) nicht. Knicke im Funktionsgraphen auftreten.

Ein Kennzeichen stetiger Funktionen ist es, dass ihre Graphen (evtl. auch nur in Intervallen) nicht. Knicke im Funktionsgraphen auftreten. FOS, 11 Jahrgangsstufe (technisch) 6 Stetigkeit Ein Kennzeichen stetiger Funktionen ist es, dass ihre Graphen (evtl auch nur in Intervallen) nicht abreißen und gezeichnet werden können, ohne den Zeichenstift

Mehr

Kapitel 6. Exponentialfunktion

Kapitel 6. Exponentialfunktion Kapitel 6. Exponentialfunktion 6.1. Potenzreihen In Kap. 4 haben wir Reihen ν=0 a ν studiert, wo die Glieder feste Zahlen sind. Die Summe solcher Reihen ist wieder eine Zahl, z.b. die Eulersche Zahl e.

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

REIHENENTWICKLUNGEN. [1] Reihen mit konstanten Gliedern. [2] Potenzreihen. [3] Reihenentwicklung von Funktionen. Eine kurze Einführung Herbert Paukert

REIHENENTWICKLUNGEN. [1] Reihen mit konstanten Gliedern. [2] Potenzreihen. [3] Reihenentwicklung von Funktionen. Eine kurze Einführung Herbert Paukert Reihenentwicklungen Herbert Paukert 1 REIHENENTWICKLUNGEN Eine kurze Einführung Herbert Paukert [1] Reihen mit konstanten Gliedern [2] Potenzreihen [3] Reihenentwicklung von Funktionen Reihenentwicklungen

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Reihen/Partialsummenfolgen und vollständige Induktion. Robert Klinzmann

Reihen/Partialsummenfolgen und vollständige Induktion. Robert Klinzmann Reihen/Partialsummenfolgen und vollständige Induktion Robert Klinzmann 3. Mai 00 Reihen / Partialsummen 1 Inhaltsverzeichnis 1 Vorwort Das Prinzip der vollständigen Induktion 3 3 Herleitung der Gauß schen

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Kapitel 7. Funktionentheorie. 7.1 Holomorphe und harmonische Funktionen. 1. Definitionen

Kapitel 7. Funktionentheorie. 7.1 Holomorphe und harmonische Funktionen. 1. Definitionen Kapitel 7 Funktionentheorie In diesem Kapitel geht es meistens um Funktionen, die auf einem Gebiet G C definiert sind und komplexe Werte annehmen. Nach Lust, Laune und Bedarf wird C mit R identifiziert,

Mehr

Die alternierende harmonische Reihe.

Die alternierende harmonische Reihe. Die alternierende harmonische Reihe Beispiel: Die alternierende harmonische Reihe k k + = 2 + 3 4 + konvergiert nach dem Leibnizschen Konvergenzkriterium, und es gilt k k + = ln2 = 06934 für den Grenzwert

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen

Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen Kapitel III Stetige Funktionen 14 Stetigkeit und Rechenregeln für stetige Funktionen 15 Hauptsätze über stetige Funktionen 16 Konvergenz von Funktionen 17 Logarithmus und allgemeine Potenz C 1 14 Stetigkeit

Mehr

konvergent falls Sei eine allgemeine ("gutmütige") Funktion. Frage: kann man sie in der Nähe des Punktes darstellen mittels einer Potenzreihe in

konvergent falls Sei eine allgemeine (gutmütige) Funktion. Frage: kann man sie in der Nähe des Punktes darstellen mittels einer Potenzreihe in C5 Funktionen: Reihenentwicklungen C5.1 Taylorreihen Brook Taylor (1685-1731) (Analysis-Vorlesung: Konvergenz von Reihen und Folgen) Grundlegende Frage: Wann / unter welchen Voraussetzungen lässt sich

Mehr

27 Taylor-Formel und Taylor-Entwicklungen

27 Taylor-Formel und Taylor-Entwicklungen 136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie

Mehr

cos(kx) sin(nx)dx =?

cos(kx) sin(nx)dx =? 3.5 Fourierreihen 3.5.1 Vorbemerkungen cos(kx) sin(nx)dx =? cos gerade Funktion x cos(kx) gerade Funktion sin ungerade Funktion x sin(nx) ungerade Funktion x cos(kx) sin(nx) ungerade Funktion Weil [, π]

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

Aufgaben zur Analysis I aus dem Wiederholungskurs

Aufgaben zur Analysis I aus dem Wiederholungskurs Prof. Dr. H. Garcke, Dr. H. Farshbaf-Shaker, D. Depner WS 8/9 Hilfskräfte: A. Weiß, W. Thumann 6.3.29 NWF I - Mathematik Universität Regensburg Aufgaben zur Analysis I aus dem Wiederholungskurs Die folgenden

Mehr

Approximation der Binomialverteilung durch die Normalverteilung

Approximation der Binomialverteilung durch die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 4.0.007 Approimation der Binomialverteilung durch die Normalverteilung Histogramme von Binomialverteilungen sind für nicht zu kleine n glockenförmig. Mit größer

Mehr

SS 2016 Höhere Mathematik für s Studium der Physik 21. Juli Probeklausur. Die Antworten zu den jeweiligen Fragen sind in blauer Farbe notiert.

SS 2016 Höhere Mathematik für s Studium der Physik 21. Juli Probeklausur. Die Antworten zu den jeweiligen Fragen sind in blauer Farbe notiert. SS 6 Höhere Mathematik für s Studium der Physik. Juli 6 Probeklausur Die Antworten zu den jeweiligen Fragen sind in blauer Farbe notiert. Fragen Sei (X, d) ein metrischer Raum. Beantworten Sie die nachfolgenden

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population

Mehr

1 Reihen von Zahlen. Inhalt:

1 Reihen von Zahlen. Inhalt: 5 Kapitel 3 Reihen Reihen von Zahlen Inhalt: Konvergenz und Divergenz von Reihen reeller oder komplexer Zahlen, geometrische Reihe, harmonische Reihe, alternierende Reihen. Cauchy-Kriterium, absolute Konvergenz,

Mehr

Anpassungstests VORGEHENSWEISE

Anpassungstests VORGEHENSWEISE Anpassungstests Anpassungstests prüfen, wie sehr sich ein bestimmter Datensatz einer erwarteten Verteilung anpasst bzw. von dieser abweicht. Nach der Erläuterung der Funktionsweise sind je ein Beispiel

Mehr

5. Zahlentheoretische Funktionen

5. Zahlentheoretische Funktionen 5. Zahlentheoretische Funktionen 5.1. Definition. Unter einer zahlentheoretischen (oder arithmetischen Funktion versteht man eine Abbildung f : N 1 C. Die Funktion f : N 1 C heißt multiplikativ, wenn f(1

Mehr

KAPITEL 9. Funktionenreihen

KAPITEL 9. Funktionenreihen KAPITEL 9 Funktionenreihen 9. TaylorReihen............................ 28 9.2 Potenzreihen............................ 223 9.3 Grenzfunktionen von Funktionenfolgen bzw. reihen........ 230 9.4 Anwendungen............................

Mehr

Fourier-Reihen: Definitionen und Beispiele

Fourier-Reihen: Definitionen und Beispiele Fourier-Reihen: Definitionen und Beispiele Die Fourieranalysis beschäftigt sich mit dem Problem Funktionen in Kosinus und Sinus zu entwickeln. Diese Darstellungen sind in der Mathematik sowie in der Physik

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) 1 Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) Kapitel 5: Konvergenz Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Dezember 2011) Folgen Eine Folge x 0, x 1,

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

STETIGE VERTEILUNGEN

STETIGE VERTEILUNGEN STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr