Maximum-Likelihood-Schätzung für das Black-Scholes-Merton-Modell und das Cox-Ingersoll-Ross-Modell

Größe: px
Ab Seite anzeigen:

Download "Maximum-Likelihood-Schätzung für das Black-Scholes-Merton-Modell und das Cox-Ingersoll-Ross-Modell"

Transkript

1 Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen SS 2012 Maximum-Likelihood-Schätzung für das Black-Scholes-Merton-Modell und das Cox-Ingersoll-Ross-Modell Thema 10 Philipp Probst 19. Juni 2012 Dozentin: Prof. Dr. Christine Müller

2 Inhaltsverzeichnis 1 Einleitung 3 2 Statistische Modelle und Methoden Die stochastische Differentialgleichung Das Black-Scholes-Merton-Modell Das Cox-Ingersoll-Ross-Modell Die Maximum-Likelihood-Schätzung Die ML-Schätzung bei stochastischen DGLs Simulationen Black-Scholes-Merton-Modell Cox-Ingersoll-Ross-Modell Zusammenfassung 13 A Anhang 15 Literatur 25

3 1 Einleitung 3 1 Einleitung Stochastische Integral- und Differentialrechnung spielen in den Wirtschaftswissenschaften eine immer größer werdende Rolle. Sie kann zum einen zur Modellierung von Finanzmärkten eingesetzt werden, zum anderen baut die moderne Zeitreihenökonometrie darauf auf. Das von Black und Scholes aufgestellte Modell zur Lösung einer stochastischen Differentialgleichung brachte den beiden sogar den Nobelpreis und fand Anwendung auf Aktienmärkten. Es sollte dabei nicht außer acht gelassen werden, dass Finanzmärkte sehr schwierig zu modellieren sind und bestimmte Annahmen wie die, dass die Fluktuationen normalverteilt sind, nicht mit der Realität übereinstimmen. Solche Fehlannahmen haben in der Vergangenheit zu großen Verlusten im Derivatenhandel geführt (Ball, 2004, S.251). Lösungen von anderen stochastischen Differentialgleichungen haben aber nicht nur Anwendungen in der Wirtschaft, das Cox-Ingersoll-Ross-Modell wird beispielsweise auch zur Modellierung von Bevölkerungswachstum oder Stickstoffoxidemissionen verwendet. In der folgenden Arbeit werden in Kapitel 2 zunächst das Black-Scholes-Modell, das Cox- Ingersoll-Ross-Modell sowie die Maximum-Likelihood-Schätzung vorgestellt. Daraufhin werden in Kapitel 3 jeweils konkrete Möglichkeiten zur Maximum-Likelihood-Schätzung der Parameter der beiden Modelle besprochen. Bei den darauf folgenden Simulationen zu den beiden Modellen soll vor allem die Genauigkeit der Schätzungen bei unterschiedlicher Anzahl an Realisierungen oder unterschiedlichen Zeitabständen der aufeinander folgenden Realisierungen ins Auge gefasst werden. Außerdem soll die asymptotische Normalverteilungsannahme der Maximum-Likelihood-Schätzung überprüft werden. In Kapitel 4 werden die wichtigsten Ergebnisse der Simulationen zusammengefasst. 2 Statistische Modelle und Methoden In diesem Kapitel werden die statistischen Modelle und Methoden vorgestellt, die bei den darauf folgenden Simulationen benutzt werden.

4 2 Statistische Modelle und Methoden Die stochastische Differentialgleichung Die Differentialgleichung dxt dt = f(t, x) kann als Integralgleichung x t = x a + t a f(s, x(s))ds geschrieben werden (Kuo, 2006, S.185). Wird die Funktion durch eine brownsche Bewegung B t beeinflusst, so ergibt sich die Differentialgleichung dxt dt = f(t, X) + σ(t, X)B t. Diese kann umgeschrieben werden zu dx t = f(t, X)dt + σ(t, X)dB t, die als stochastische Integralgleichung X t = X a + t a f(s, X s)ds + t a σ(s, X s)db(s), a t b interpretiert werden kann. Lösungen X t dieser Gleichungen werden Diffusionsprozesse genannt. In den beiden folgenden Kapiteln werden zwei wichtige stochastische Differentialgleichungen vorgestellt, die sich aus der allgemeinen Form dx t = f(x t, θ)dt + σ(x t, θ)db(t) (1) ableiten lassen. θ Θ R p ist dabei ein unbekannter p-dimensionaler Vektor, der die Funktionen f und σ näher beschreibt und f : R Θ R und σ : R Θ (0, ) seien bekannt und so gewählt, dass (1) eine Lösung besitzt. 2.2 Das Black-Scholes-Merton-Modell Das Black-Scholes-Merton-Modell wird je nach Kontext auch Black-Scholes-Modell oder Modell der brownschen geometrischen Bewegung genannt. Es löst die spezielle stochastische Differentialgleichung dx t = θ 1 X t dt + θ 2 X t db t, X 0 = x 0, θ 1 R, θ 2 R +. (2) (vgl. Iacus, 2008, S.117f). Die zugehörige bedingte Dichtefunktion p θ (t,. x) zum Zeitpunkt t bei gegebenem Wert x ist logarithmisch normalverteilt mit Erwartungswert m(t, x) = xe θ 1t und Varianz v(t, x) = x 2 e 2θ 1t (e θ2 2 t 1). Daraus folgt die bedingte Dichte p θ (t, y x) = 1 θ 2 y 2πt exp { (log y (log x + (θ 1 1 } 2 θ2 2 )t))2. (3) 2θ2t 2

5 2 Statistische Modelle und Methoden Das Cox-Ingersoll-Ross-Modell Das Cox-Ingersoll-Ross-Modell löst die spezielle stochastische Differentialgleichung dx t = (θ 1 θ 2 X t )dt + θ 3 X t db t, X 0 = x 0 > 0, (4) (vgl. Iacus, 2008, S.119), wobei θ 1, θ 2, θ 3 R + sind. Im Falle von 2θ 1 > θ 2 3 ist der Prozess strikt positiv, ansonsten nur nichtnegativ. Die bedingte Dichte Y t Y 0 der Zufallsvariablen Y t = 2cX t mit c = 2θ 2 /(θ3(1 e 2 θ2t )) verhält sich wie eine nichtzentrale χ 2 -Verteilung mit 4θ 1 /θ3 2 Freiheitsgraden und Nichtzentralitätsparameter y 0e θ2t (Iacus, 2008, S.47). Daraus lässt sich leicht die bedingte Dichte von X t X 0 = x 0 berechnen. Das Ergebnis ist p θ (t, y x) = ce u v ( v u) q/2 Iq (2 uv), x, y R + (5) 2θ mit den Parametern c = 2, q = 2θ θ3 2(1 e θ 2 t) 1 1, u = cxe θ2t, v = cy. θ3 2 I q (.) ist dabei die modifizierte Bessel-Funktion ersten Grades q, die sich als I q (x) = ( x 1 k=0 2 )2k+q k!γ(k + q + 1), x R (6) aufschreiben lässt. Γ(.) bezeichnet die Gammafunktion Γ(z) = 0 x z 1 e x dx, z R. 2.4 Die Maximum-Likelihood-Schätzung Seien X 1,..., X n unabhängig identisch verteilte Zufallsvariablen mit gemeinsamer Dichte f(x 1,..., x n θ) = f(x 1 θ) f(x n θ). θ R k sei dabei ein Parametervektor, der eine bestimmte X 1,..., X n zugrunde liegende Verteilung charakterisiert. Bei einer Realisierung von Werten x 1,..., x n und unbekanntem Parametervektor θ kann die Dichte als eine Funktion in Abhängigkeit von θ aufgefasst werden. Diese Funktion L(θ) = f(x 1,..., x n θ) wird als Likelihoodfunktion bezeichnet (Fahrmeir et al., 1999, S.372f). Sinnvoll ist es dann als Schätzung für θ denjenigen Parameter ˆθ zu wählen, der die Likelihoodfunktion maximiert, also L(ˆθ) = max θ f(x 1,..., x n θ). Letztendlich liefert uns diese Funktion also für die

6 2 Statistische Modelle und Methoden 6 Zufallsvariablen X 1,..., X n denjenigen Parameter ˆθ, der am plausibelsten erscheint. Die Schätzfunktion ˆθ(x 1,..., x n ), die uns in Abhängigkeit der Realisierungen eine Schätzung für θ liefert, nennt man Maximum-Likelihood-Schätzer. Das Maximum dieser Funktion kann, falls die Funktion differenzierbar ist, durch partielles Ableiten nach θ 1,..., θ n und Nullsetzen der Ableitungen berechnet werden. In vielen Fällen ist es sinnvoll die Likelihoodfunktion zunächst zu logarithmieren und diese dann zu maximieren, da die Terme oft einfacher abzuleiten sind und das Maximum einer Funktion wegen der strikten Monotonie des Logarithmus auch das Maximum seiner Logarithmierung ist. Diese Funktion l(θ) = ln L(θ) = n ln f(x i θ) wird Log-Likelihood-Funktion genannt. i=1 2.5 Die ML-Schätzung bei stochastischen DGLs Seien x 1,..., x n zeitdiskrete Beobachtungen eines stochastischen Prozesses, der über eine stochastische Differentialgleichung wie in (1) definiert ist. Sei außerdem für jede Beobachtung X 1,..., X n die auf die vorhergehende Beobachtung bedingte Dichtefunktion p θ (t, x i, x i 1 ) mit unbekanntem θ bekannt. Dann kann der Parametervektor θ der stochastischen Differentialgleichung mittels einer Maximum-Likelihood-Schätzung geschätzt werden. Aufgrund der Markov-Eigenschaft von X hat nur die Beobachtung x i 1 einen Einfluss auf x i und die Likelihoodfunktion ist dann gegeben durch n n L(θ) = p θ (t, x i, x 1,..., x i 1 )p θ (x 0 ) = p θ (t, x i, x i 1 )p θ (x 0 ). (7) i=1 i=1 Mittels Logarithmierung lässt sich daraus leicht die Log-Likelihoodfunktion l(θ) = ln(l(θ)) bilden. Problematisch ist hierbei der Wert p θ (x 0 ), da die Dichte zu diesem Zeitpunkt oft nicht gegeben ist. Für eine große Anzahl n an Beobachtungen wird der Einfluss von p θ (x 0 ) so gering, dass er vernachlässigt und auf 1 gesetzt werden kann. Um das Maximum zu erhalten können wie bei der normalen Maximum-Likelihood-Schätzung die partiellen Ableitungen nach θ 1,..., θ n gleich Null gesetzt werden. Unter bestimmten Bedingungen gilt, dass die Maximum-Likelihood-Schätzung konsistent und asymptotisch normalverteilt ist (Iacus, 2008, S.112). Statt die Bedingungen zu überprüfen kann man dies jedoch auch mittels Empirie feststellen. Bei bestimmten bedingten Dichten ist es nur schwer möglich

7 3 Simulationen 7 mittels analytischer Methoden ein Maximum zu finden. In diesen Fällen können numerische Verfahren wie das L BF GS B angewendet werden, das bereits im vorhergehenden Vortrag beschrieben wurde. 3 Simulationen In den folgenden Simulationen soll von Interesse sein, die Parameter der bedingten Dichten der stochastischen Differentialgleichungen bei gegebenen Realisierungen möglichst gut zu schätzen. Die Realisierungen eines bestimmten stochastischen Prozesse können mit der Funktion sde.sim in R (R Development Core Team 2012) aus dem Paket sde (Iacus, 2009) simuliert werden. Dazu müssen der Drift, der Diffusionskoeffizient und ein Simulationsschema oder die bedingte Dichtefunktion einer bestimmten stochastischen Differentialgleichung angegeben werden. Außerdem sollten noch die Anzahl an Realisierungen n und die Zeitabstände t zwischen zwei aufeinander folgenden Realisierungen angegeben werden. Anhand der simulierten Daten soll daraufhin eine Maximum-Likelihood-Schätzung (ML-Schätzung) durchgeführt werden, um die Parameter der stochastischen Differentialgleichungen zu schätzen. Als letztes soll evaluiert werden, wie gut die durchgeführten Schätzungen sind. Unter bestimmten Bedingungen ist die Konsistenz und die asymptotische Normalverteilung der ML-Schätzung gegeben. Ob die Schätzungen dies erfüllen, soll hier empirisch überprüft werden. Außerdem soll das Verhalten der Schätzer bei Variierung der Zeitabstände t untersucht werden. 3.1 Black-Scholes-Merton-Modell Zunächst wird das Black-Scholes-Merton-Modell betrachtet. Als erstes werden mit der Funktion sde.sim jeweils n 1 = 100, n 2 = 1000 und n 3 = 5000 Realisierungen einer geometrischen Brownschen Bewegung mit Parametern θ 1 = 0.5, θ 2 = 0.2 und Zeitabständen t = 0.01 erzeugt, der Anfangswert ist x 0 = 1. Es werden dann zwei Funktionen zur Berechnung des ML-Schätzers programmiert (vgl. Anhang). Es wird dazu die bedingte Dichte dieses Modells benutzt, sie ist lognormalverteilt mit Dichte wie in (3) auf Seite 4.

8 3 Simulationen 8 Jede Beobachtung wird dabei auf die vorhergehende Beobachtung bedingt. Allerdings ist das Maximum der Likelihoodfunktion von lognormalverteilten Zufallsvariablen analytisch nicht einfach berechenbar, weswegen die numerische Methode L-BFGS-B verwendet wird. Diese ist in der Funktion mle enthalten, die in R ohne Paketinstallation aufrufbar ist. Da diese standardmäßig das Minimum einer Funktion sucht, wird das Vorzeichen der Likelihood-Funktion umgedreht. Der Parametervektor ˆθ = (ˆθ 1, ˆθ 2 ) der möglichen Lösungen wird auf den Raum (0.01, 0.01) ˆθ (1, 1) beschränkt. Außerdem wird mit Hilfe der Hesse-Matrix die Standardabweichung sowie das 95%-Konfidenzintervall berechnet. Die jeweils erhaltenen Parameterschätzer sind in Tabelle 1 zu sehen. Für eine größer werdende Anzahl an Realisierungen liegen die Schätzungen immer näher am wahren θ = (0.5, 0.2). Die Konfidenzintervalle überdecken bei θ 1 immer den wahren Parameter, bei θ 2 wird er erst bei der letzten Schätzung mit n 3 = 5000 Beobachtungen überdeckt. Tabelle 1: ML-Schätzer, Standardabweichung und 95% Konfidenzintervalle für θ Anzahl Realisierungen ˆθ1 ˆθ2 n 1 = 100 ML-Schätzung Standardabweichung %-Konfidenzintervall [0.2690, ] [0.2050, ] n 2 = 1000 ML-Schätzung Standardabweichung %-Konfidenzintervall [0.3193, ] [0.2008, ] n 3 = 5000 ML-Schätzung Standardabweichung %-Konfidenzintervall [0.4143, ] [0.1986, ] Um genauere Aussagen treffen zu können, werden für n = 100, 200, 300,..., 5000 Beobachtungen einer brownschen Bewegung mit gleichen Einstellungen wie bei obigen Schätzungen jeweils 1000 Prozesse simuliert. Für diese Prozesse wird jeweils eine ML-Schätzung durchgeführt. Von diesen ML-Schätzung wird das arithmetische Mittel sowie das bzw Quantil gebildet. Das Ergebnis für ˆθ 1 ist in Abbildung 1 zu sehen, für ˆθ 2 ist eine analoge Grafik im Anhang zu sehen (Abbildung 3). Es ist erkennbar, dass bei θ 1 und θ 2 die Mittelwerte der ML-Schätzungen immer nahe an den wahren θ 1 und θ 2 liegen und die Abstände der bzw Quantile immer enger werden. Es kann deshalb davon

9 3 Simulationen 9 ausgegangen werden, dass die Schätzungen im Mittel immer richtig sind und dass bessere Schätzungen resultieren, wenn die Anzahl der Beobachtungen erhöht wird, da sich dann der Abstand der Quantilen zu den Quantilen und damit auch die Varianz verkleinert. Durchschnitt über 1000 Wiederholungen ML Schätzung und Quantile wahrer Wert Anzahl Realisierungen Abbildung 1: Black-Scholes-Modell: Durchschnitt und bzw Quantile der ML- Schätzungen von θ 1 bei wachsender Anzahl an Realisierungen Von Interesse ist außerdem, ob die asymptotische Normalverteilungsannahme richtig ist. Dafür werden für eine große Anzahl an Beobachtungen n (n = 5000) 1000 Wiederholungen einer ML-Schätzung für θ 1 und θ 2 durchgeführt, die restlichen Einstellungen bleiben gleich. Diese Schätzungen werden dann mittels QQ-Plots, die in Abbildung 2 zu sehen sind, auf Normalverteilung überprüft. Es ist hier keine markante Abweichung von einer Geraden erkennbar, weshalb von asymptotischer Normalverteilung ausgegangen werden kann. Darüber hinaus kann betrachtet werden, wie sich die ML-Schätzung verhält, wenn der Zeitabstand t zwischen den Beobachtungen verändert wird. Für t 0.3 ist die numerische Berechnung des ML-Schätzers nicht mehr möglich, da die geometrische Bewegung am Ende Werte erzeugt, die für R unendlich sind. Um das allgemeine Verhalten des ML- Schätzers bei verschiedenen Zeitabständen t zu betrachten, wird t < 0.3 variiert, die

10 3 Simulationen 10 Emprische Quantile Emprische Quantile Theoretische Quantile Theoretische Quantile Abbildung 2: QQ-Plots der 1000 ML-Schätzungen für geometrische brownsche Bewegungen mit n = 5000 Realisierungen und θ 1 (links) und θ 2 (rechts) Grenzen der möglichen Lösungen werden neu gesetzt (( 6, 0.01) θ (1, 1)). Es werden für t = e 11.4, e 11.2, e 11,..., e 1.6 wieder jeweils 1000 Wiederholungen einer brownschen Bewegung mit n = 1000 Beobachtungen durchgeführt und das arithmetische Mittel sowie die und Quantile der ML-Schätzungen berechnet. Das Ergebnis ist in Abbildung 4 im Anhang zu sehen. Die x-achse ist logarithmiert, um eine bessere Übersicht über die Werte zu bekommen. Für θ 1 ist die Schätzung im Mittel immer richtig, mit größer werdenden Zeitabständen t wird die Schätzung immer besser, da der Abstand der Quantile, die den wahren Wert 0.05 einschließen immer kleiner wird. Für θ 2 dagegen sind die Schätzungen unabhängig von t überall gleich gut. Dies liegt vermutlich daran, dass θ 1 der Parameter für die deterministische Steigung ist. Diese wird bei größeren Zeitabständen offensichtlicher, da die Schätzung nicht mehr so stark durch den zufälligen Verlauf der Brownschen Bewegung beeinflusst wird. Der Parameter der brownschen Bewegung θ 2 ist im Gegensatz dazu unabhängig von den Zeitabständen gut berechenbar, da die Brownsche Bewegung auf beliebig kleinen Räumen die gleiche Struktur aufweist.

11 3 Simulationen Cox-Ingersoll-Ross-Modell Als nächstes soll eine Schätzung der Parameter des Cox-Ingersoll-Ross-Modells (CIR- Modell) durchgeführt werden. Dazu wird auch hier die bedingte Dichte verwendet um eine Maximum Likelihood-Schätzung für θ durchzuführen. Problematisch ist hierbei die in der bedingten Dichte enthaltene Bessel-Funktion I q. Die in R implementierte Funktion besseli(x,q) führt zu Overflows bei großem x und q. Overflow, auch arithmetischer Überlauf genannt, bedeutet, dass das Ergebnis einer Rechnung für den gültigen Zahlenbereich (in R Absolutwerte von bis ) zu groß ist, um noch richtig interpretiert werden zu können. Ähnliche Probleme ergeben sich, wenn die χ 2 -Verteilung zur Likelihood-Schätzung benutzt wird, auch wenn hier seltener Overflows entstehen. Um bessere Ergebnisse zu erzielen, wird die exponentiell skalierte Bessel-Funktion e 2 uv I q (2 uv) verwendet, statt die normale in besseli(x,q) implementierte Funktion zu verwenden. Diese kann mittels asymptotischer Expansion berechnet werden (siehe expbes im Anhang). Die Log-Likelihood des CIR Modells ergibt sich zu l i (θ) = log c (u + v) + q ( ) v 2 log + log I q (2 uv). (8) u Um die exponentiell skalierte Bessel-Funktion anzuwenden wird der Rechte Term von log I q (2 uv) = log I q (2 uv) 2 uv + 2 uv = log(e 2 uv I q (2 uv)) + 2 uv (9) benutzt, der sich aus dem letzten Term der Loglikelihood ergibt. Trotz dieser Modifikation ist bei allen Alternativen die Berechnung des ML-Schätzers aufgrund numerischer Overflows oftmals nicht möglich. Im weiteren Verlauf wird deshalb sowohl die Variante mit der exponentiell skalierten Bessel-Funktion (CIR.lik) und die Variante mit der χ 2 -Verteilung (CIR.lik2) benutzt (vgl. Anhang). Generell kommt es wohl bei kleinen Beobachtungsanzahlen n und bei zu großen oder zu kleinen Zeitabständen t vermehrt zu Fehlermeldungen. Zunächst werden 1000 CIR-Prozesse mit N = 1000 Realisierungen, Parametern θ 1 = 0.2, θ 2 = 0.06 und θ 3 = 0.15 sowie Zeitabständen t = 0.01 simuliert. Der Parametervektor ˆθ = (ˆθ 1, ˆθ 2, ˆθ 3 ) der möglichen Lösungen wird

12 3 Simulationen 12 auf den Raum (0.01, 0.01, 0.01) ˆθ (1, 1, 1) beschränkt. Bei CIR.lik konnte genau wie bei CIR.lik2 132-mal keine Schätzung durchgeführt werden, da ein Fehler auftrat. Leider traten die Fehler jeweils bei den selben CIR-Prozessen auf. Bei anderen Einstellungen konnte es aber durchaus sein, dass eine Funktion ein Ergebnis lieferte und die andere nicht, weswegen dennoch beide Möglichkeiten im Auge behalten werden sollten. Ein Beispiel für eine dieser ML-Schätzungen mit den berechneten Werten, Standardabweichungen und Konfidenzintervallen ist in Tabelle 2 zu finden. Beide Schätzungen sind hier in etwa gleich, der Parameter θ 1 wird stark überschätzt. Tabelle 2: Maximum Likelihood-Schätzer für den Parameter θ Funktion ˆθ1 ˆθ2 ˆθ3 (CIR.lik) ML-Schätzung Standardabweichung %-Konfidenzintervall [NA,0.4311] [ , ] [0.1461, ] (CIR.lik2) ML-Schätzung Standardabweichung %-Konfidenzintervall [NA,0.4311] [ , ] [0.1461, ] Ein weiterer interessanter Aspekt ist die Dauer der Berechnungen. Einen Schätzung mittels der χ 2 -Verteilung zu berechnen benötigt mehr als zehnmal so viel Zeit wie die Funktion, welche die exponentiell skalierte Bessel-Funktion verwendet. Eine saubere Analyse der programmierten ML-Schätzungen ist wegen der häufig auftretenden Fehlermeldungen schwerlich möglich, da die Fehlermeldungen wohl bei einer speziellen Klasse von Daten auftreten. Dies kann anhand Abbildung 5 im Anhang nachvollzogen werden. Hier wurden mit der Funktion CIR.lik ML-Schätzungen für n = 100, 200, 300,..., 5000 jeweils 1000 mal durchgeführt, die Parameter wurden wie oben gewählt. Der Parametervektor wurde auf den Raum ( 2, 0.001, 0.001) ˆθ (1, 5, 1) eingeschränkt. Die arithmetischen Mittel und die Quantile über die ML-Schätzungen von θ 1 und θ 2 bei kleinen n, die keine Fehlermeldung aufweisen (ca. 85%), liegen weit über dem wahren Wert. Dies könnte daran liegen, dass die Berechnung vor allem für Daten, die eine kleine ML-Schätzung ergeben würden, scheitert. θ 3 scheint dagegen für alle n erwartungstreu geschätzt werden zu können. Für größer werdende n werden die Schätzun-

13 4 Zusammenfassung 13 gen besser für alle θ, dies ist an der Konvergenz der Mittelwerte gegen die wahren Werte sowie den kleineren Abständen zwischen den Quantilen zu sehen. Auch die Anzahl an Fehlermeldungen reduziert sich, so tritt beispielsweise für n = 5000 keine Fehlermeldung mehr auf. Um wieder die asymptotische Normalverteilungsannahme zu überprüfen werden für die Ergebnisse bei n = 5000 für alle Parameter QQ-Plots erstellt, die im Anhang in den Abbildungen 6 und 7 zu finden sind. Da auch keine Fehlermeldungen auftreten, können Verzerrungen aus diesem Grund ausgeschlossen werden. Bei θ 1 und θ 2 sind leichte Krümmungen zu erkennen. Einzig die ML-Schätzung für θ 3 scheint die asymptotische Normalverteilungsannahme zu erfüllen. Auf eine grafische Analyse des Verhaltens bei unterschiedlichen Zeitabständen t wird, wegen der häufig auftretenden Fehlermeldungen bei zu großen und zu kleinen t, verzichtet. Diese machen eine Überprüfung der Erwartungstreue und Varianz der ML-Schätzer bei unterschiedlichen t unmöglich. 4 Zusammenfassung In dieser Ausarbeitung geht es darum, Methoden zur Schätzung von Parametern des Black-Scholes-Modells und des Cox-Ingersoll-Ross-Modells vorzustellen und zu bewerten. Beide Modelle bieten Lösungen zu speziellen stochastischen Differentialgleichungen. Die Dichten zu einer Realisierung, bedingt auf die vorhergehende Realisierung, bei bekannten Zeitabständen sind in beiden Fällen bekannt, weswegen die Parameter jeweils mit der Maximum-Likelihood-Methode geschätzt werden können. Da eine analytische Berechnung des Maximums wegen der Unkenntnis der partiellen Ableitungen nicht möglich ist, werden numerische Methoden verwendet. Dazu muss der Lösungsraum des Parametervektors vorab beschränkt werden. Beim Black-Scholes-Modell werden mit dieser Methode für eine ausreichend große Anzahl an Beobachtungen recht gute Ergebnisse erzielt, die Schätzung für beide Parameter ist durchgehend erwartungstreu. Zusätzlich wird die ML-Schätzung bei wachsender Anzahl

14 4 Zusammenfassung 14 an Beobachtungen immer genauer. Für eine große Anzahl an Beobachtungen kann auch festgestellt werden, dass die ML-Schätzer normalverteilt um den wahren Wert θ streuen, dass also eine asymptotische Normalverteilung vorliegt. Bei konstant gehaltener Anzahl an Beobachtungen und größer werdenden Zeitabständen wird die Schätzung für den Steigungsparameter θ 1 immer besser. Die Schätzung für den Parameter der brownschen Bewegung θ 2 bleibt dagegen konstant gut. Die ML-Schätzung beim Cox-Ingersoll-Ross-Modell ist problematischer. Bei Benutzung der normalen bedingten Dichte dieses Modells ergeben sich große Probleme bei der ML- Schätzung, da es zu numerischen Overflows kommt. Deshalb werden modifizierte Versionen dieser bedingten Dichte verwendet, die jedoch auch nicht immer einwandfrei funktionieren und oft zu Fehler führen. Um Fehler zu vermeiden sollte die Beobachtungsanzahl n ausreichend groß und der Zeitabstand in etwa um t=0.01 gewählt werden. Die Schätzungen für die deterministischen Parameter θ 1 und θ 2 sind nicht erwartungstreu, aber wenigstens konsistent. Auch die asymptotische Normalverteilungsannahme der Schätzer ist bei den beiden Parametern nicht sicher gewährleistet. Die Schätzung für θ 3 ist dagegen erwartungstreu und asymptotisch normalverteilt. Auf eine Analyse bei unterschiedlichen Zeitabständen t wird verzichtet, da eine zu große Variation von t nach oben oder nach unten zu einer großen Anzahl an Fehlermeldungen führt, welche die Analyse verzerrt. Weitergehende Untersuchungen könnten beim Cox-Ingersoll-Ross-Modell versuchen die Gefahr von numerischen Overflows bei der Maximum-Likelihood-Schätzung einzudämmen. Dazu existieren bereits einige Überlegungen, beispielsweise könnte die bedingte Dichte mittels einer Poisson mixing-gamma Charakterisierung approximiert werden (vgl. Iacus, 2008, S.121).

15 A Anhang 15 A Anhang A.1 Zusätzliche Grafiken und Tabellen Durchschnitt über 1000 Wiederholungen ML Schätzung und Quantile wahrer Wert Anzahl Realisierungen Abbildung 3: Black-Scholes-Modell:Durchschnitt und bzw Quantile der ML- Schätzungen von θ 2 bei wachsender Anzahl an Realisierungen

16 A Anhang 16 Durchschnitt über 1000 Wiederholungen ML Schätzung und Quantil wahrer Wert logarithmierte Zeitabstände Durchschnitt über 1000 Wiederholungen ML Schätzung und Quantil wahrer Wert logarithmierte Zeitabstände Abbildung 4: Black-Scholes-Modell: Durchschnitt und bzw Quantile der ML- Schätzungen von θ 1 (oben) und θ 2 (unten) bei wachsenden Zeitabständen

17 A Anhang 17 Durchschnitt über 1000 Wiederholungen Anzahl Realisierungen ML Schätzung und Quantil wahrer Wert Durchschnitt über 1000 Wiederholungen Anzahl Realisierungen ML Schätzung und Quantil wahrer Wert Durchschnitt über 1000 Wiederholungen Anzahl Realisierungen ML Schätzung und Quantil wahrer Wert Abbildung 5: Cox-Ingersoll-Ross-Modell: Durchschnitt und bzw Quantile der ML-Schätzungen von θ 1 (oben), θ 2 (mittig) und θ 3 (unten) bei wachsenden Zeitabständen

18 A Anhang 18 Emprische Quantile Emprische Quantile Theoretische Quantile Theoretische Quantile Abbildung 6: QQ-Plots der 1000 ML-Schätzungen des Cox-Ingersoll-Ross-Modells mit n = 5000 Realisierungen für θ 1 (links) und θ 2 (rechts) Emprische Quantile Theoretische Quantile Abbildung 7: QQ-Plot der 1000 ML-Schätzungen des Cox-Ingersoll-Ross-Modells mit n = 5000 Realisierungen für θ 3

19 A Anhang 19 A.2 R-Code # Black-Scholes Model dcbs <- function(x,t,x0,theta,log=true){ m1 <- log(x0) + (theta[1]-theta[2]^2/2)*t s1 <- sqrt(t)*theta[2] lik <- dlnorm(x,meanlog=m1,sdlog=s1,log=true) if(!log) lik <-exp(lik) lik } BS.lik <- function(theta1,theta2){ n <- length(x) dt <- deltat(x) -sum(dcbs(x=x[2:n], t=dt, x0=x[1:(n-1)], theta=c(theta1,theta2))) } #install.packages("sde") library(sde) # ex3.03.r set.seed(216) X <- sde.sim(model="bs", theta=c(0.5,0.2), delta=0.01) fit <- mle(bs.lik, start=list(theta1=1, theta2=1), method="l-bfgs-b", lower=c(0.01,0.01)) coef(fit) summary(fit) confint(fit) length(x)*deltat(x) set.seed(216) X <- sde.sim(model="bs", theta=c(0.5,0.2),n=1000, delta=0.01) fit <- mle(bs.lik,start=list(theta1=1, theta2=1), method="l-bfgs-b", lower=c(0.01,0.01)) coef(fit) summary(fit) confint(fit) length(x)*deltat(x) set.seed(216) X <- sde.sim(model="bs", theta=c(0.5,0.2), N=5000, delta=0.01) fit <- mle(bs.lik,start=list(theta1=1, theta2=1), method="l-bfgs-b", lower=c(0.01,0.01)) coef(fit) summary(fit) confint(fit) length(x)*deltat(x) #extra (KI s, Normalverteilung und Erwartungstreue) # Funktion set.seed(216) k <- seq(100,5000,100) e1 <- e2 <- q11 <- q12 <- q21 <- q22 <- numeric(length(k)) for (j in 1:length(k)){ f1 <- f2 <- numeric(1000) for (i in 1:1000){ X <- sde.sim(model="bs", theta=c(0.5,0.2), N=k[j], delta=0.01) fit <- mle(bs.lik,start=list(theta1=1, theta2=1), method="l-bfgs-b", lower=c(0.01,0.01)) f1[i] <- coef(fit)[[1]] f2[i] <- coef(fit)[[2]]} # Erwartungswert e1[j] <- mean(f1) e2[j] <- mean(f2) # Quantile q11[j] <- quantile(f1,0.025) q12[j] <- quantile(f1,0.975) q21[j] <- quantile(f2,0.025) q22[j] <- quantile(f2,0.975) } setwd("/media/data/studium/6. Semester/Nichtlineare dynamische Systeme") # save(list(e1,e2,q11,q12,q21,q22,f1,f2),file="realisationsanzahl.rdata") load("realisationsanzahl.rdata")

20 A Anhang 20 # Erwartungswerte # theta1 par(mfrow=c(1,1)) plot(k,a[[1]],type="l",ylim=range(c(a[[1]],a[[3]],a[[4]])),main="",xlab="anzahl Realisierungen", ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(k,a[[3]],col="blue") lines(k,a[[4]],col="blue") lines(k, rep(0.5,50),lty="dashed") legend(1000,0.32,c("ml-schätzung","0.025 und Quantile","wahrer Wert"),col=c("red","blue", "black"),lty=c(1,1,2)) #theta2 plot(k,a[[2]],type="l",ylim=range(c(a[[2]],a[[5]],a[[6]])),main="",xlab="anzahl Realisierungen", ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(k,a[[5]],col="blue") lines(k,a[[6]],col="blue") lines(k, rep(0.2,50),lty="dashed") legend(1000,0.189,c("ml-schätzung","0.025 und Quantile","wahrer Wert"),col=c("red","blue", "black"),lty=c(1,1,2)) # asymptotisch normalverteilte Daten? (laut Buch) par(mfrow=c(1,2)) qqnorm(f1,main="",ylab="emprische Quantile",xlab="Theoretische Quantile") qqline(f1) qqnorm(f2,main="",ylab="emprische Quantile",xlab="Theoretische Quantile") qqline(f2) # Bandbreitenveränderung # l muss kleiner als 0.3 sein set.seed(216) l <- exp(seq(-11.4,-1.6,0.2)) log(l) e1 <- e2 <- q11 <- q12 <- q21 <- q22 <- numeric(length(l)) for (j in 1:length(l)){ f1 <- f2 <- numeric(1000) for (i in 1:1000){ X <- sde.sim(model="bs", theta=c(0.5,0.2), N=1000, delta=l[j]) fit <- mle(bs.lik,start=list(theta1=1, theta2=1), method="l-bfgs-b", lower=c(-6,0.01)) f1[i] <- coef(fit)[[1]] f2[i] <- coef(fit)[[2]]} # Erwartungswert e1[j] <- mean(f1) e2[j] <- mean(f2) # Quantile q11[j] <- quantile(f1,0.025) q12[j] <- quantile(f1,0.975) q21[j] <- quantile(f2,0.025) q22[j] <- quantile(f2,0.975) } setwd("/media/data/studium/6. Semester/Nichtlineare dynamische Systeme") # save(list(e1,e2,q11,q12,q21,q22,f1,f2),file="bandbreiten.rdata") load("bandbreiten.rdata") # Erwartungswerte # theta1 par(mfrow=c(2,1)) plot(log(l),b[[1]],type="l",ylim=range(c(b[[1]],b[[3]],b[[4]])),main="",xlab="logarithmierte Zeitabstände",ylab="Durchschnitt über 1000 Wiederholungen",col="red") lines(log(l),b[[3]],col="blue") lines(log(l),b[[4]],col="blue") lines(log(l), rep(0.5,50),lty="dashed") legend(log(l[20]),4,c("ml-schätzung","0.025 und Quantil","wahrer Wert"), col=c("red","blue","black"),lty=c(1,1,2)) #theta2 plot(log(l),b[[2]],type="l",ylim=range(c(b[[2]],b[[5]],b[[6]])),main="", xlab="logarithmierte Zeitabstände",ylab="Durchschnitt über 1000 Wiederholungen",col="red")

21 A Anhang 21 lines(log(l),b[[5]],col="blue") lines(log(l),b[[6]],col="blue") lines(log(l), rep(0.2,50),lty="dashed") legend(log(l[20]),0.207,c("ml-schätzung","0.025 und Quantil","wahrer Wert"), col=c("red","blue","black"),lty=c(1,1,2)) ############################ Cox-Ingersoll-Ross model ###################################### expbes <- function(x,nu){ mu <- 4*nu^2 A1 <- 1 A2 <- A1*(mu-1)/(1*(8*x)) A3 <- A2*(mu-9)/(2*(8*x)) A4 <- A3*(mu-25)/(3*(8*x)) A5 <- A4*(mu-49)/(4*(8*x)) A6 <- A5*(mu-81)/(5*(8*x)) A7 <- A6*(mu-121)/(6*(8*x)) 1/sqrt(2*pi*x)*(A1-A2+A3-A4+A5-A6+A7) } dccir <- function(x, t, x0, theta, log=false){ c <- 2*theta[2]/((1-exp(-theta[2]*t))*theta[3]^2) ncp <- 2*c*x0*exp(-theta[2]*t) df <- 4*theta[1]/theta[3]^2 u <- c*x0*exp(-theta[2]*t) v <- c*x q <- 2*theta[1]/theta[3]^2-1 lik <- (log(c)- (u+v)+q/2*log(v/u)+log(expbes(2*sqrt(u*v),q))+2*sqrt(u*v)) if(!log) lik <- exp(lik) lik } CIR.lik <- function(theta1, theta2, theta3){ n <- length(x) dt <- deltat(x) -sum(dccir(x=x[2:n],t=dt,x0=x[1:(n-1)],theta=c(theta1,theta2,theta3),log=true)) } # inefficient version based on noncentral chi^2 density dccir2 <- function(x,t,x0,theta,log=false){ c <- 2*theta[2]/((1-exp(-theta[2]*t))*theta[3]^2) ncp <- 2*c*x0*exp(-theta[2]*t) df <- 4*theta[1]/theta[3]^2 lik <- (dchisq(2*x*c,df=df,ncp=ncp,log=true)+log(2*c)) if(!log) lik <- exp(lik) lik } CIR.lik2 <- function(theta1,theta2,theta3){ n <- length(x) dt <- deltat(x) -sum(dccir2(x=x[2:n], t=dt, x0=x[1:(n-1)], theta=c(theta1,theta2,theta3),log=true)) } # Simulationen CIR # Fehlersuche set.seed(216) f1 <- f2 <- f3 <- f21 <- f22 <- f23 <- numeric(1000) for (i in 1:1000){ X <- sde.sim(x0=0.1, model="cir", theta=c(0.2,0.06,0.15),n=1000,delta=0.01) try(fit <- mle(cir.lik, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(0.001,0.001,0.001),upper=c(1,1,1))) try(fit2 <- mle(cir.lik2, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(0.001,0.001,0.001),upper=c(1,1,1))) f1[i] <- coef(fit)[[1]] f2[i] <- coef(fit)[[2]]

22 A Anhang 22 f3[i] <- coef(fit)[[3]] f21[i] <- coef(fit2)[[1]] f22[i] <- coef(fit2)[[2]] f23[i] <- coef(fit2)[[3]]} for (i in 2:1000){ if((is.na(f1[i]) is.na(f1[i-1]))==f){ if(f1[i]==f1[i-1]){ f1[i] <- NA f2[i] <- NA f3[i] <- NA }}} for (i in 2:1000){ if((is.na(f21[i]) is.na(f21[i-1]))==f){ if(f21[i]==f21[i-1]){ f21[i] <- NA f22[i] <- NA f23[i] <- NA }}} setwd("/media/data/studium/6. Semester/Nichtlineare dynamische Systeme") # c <- list(f1,f21) # save(c,file="fehlercir.rdata") load("fehlercir.rdata") length(which(is.na(c[[1]]))) length(which(is.na(c[[2]]))) which(is.na(c[[1]]))==which(is.na(c[[2]])) set.seed(216) X <- sde.sim(x0=0.1, model="cir", theta=c(0.2,0.06,0.15),n=1000,delta=0.01) fit <- mle(cir.lik, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(0.001,0.001,0.001),upper=c(1,1,1)) coef(fit) summary(fit) confint(fit) length(x)*deltat(x) set.seed(216) fit2 <- mle(cir.lik2, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(0.001,0.001,0.001),upper=c(1,1,1)) coef(fit2) summary(fit2) confint(fit2) length(x)*deltat(x) system.time(fit <- mle(cir.lik, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(0.001,0.001,0.001),upper=c(1,1,1))) system.time(fit <- mle(cir.lik2, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(0.001,0.001,0.001),upper=c(1,1,1))) #extra (KI s, Normalverteilung und Erwartungstreue) # Funktion set.seed(216) k <- seq(100,5000,100) e1 <- e2 <- e3 <- q11 <- q12 <- q21 <- q22 <- q31 <- q32<- numeric(length(k)) for (j in 1:length(k)){ f1 <- f2 <- f3 <- numeric(1000) for (i in 1:1000){ X <- sde.sim(x0=0.1, model="cir", theta=c(0.2,0.06,0.15),n=k[j],delta=0.01) try(fit <- mle(cir.lik, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(-2,0.001,0.001),upper=c(1,5,1))) f1[i] <- coef(fit)[[1]] f2[i] <- coef(fit)[[2]] f3[i] <- coef(fit)[[3]]} for (i in 2:1000){ if((is.na(f1[i]) is.na(f1[i-1]))==f){ if(f1[i]==f1[i-1]){ f1[i] <- NA f2[i] <- NA f3[i] <- NA

23 A Anhang 23 } }}} # Erwartungswert e1[j] <- mean(f1,na.rm=t) e2[j] <- mean(f2,na.rm=t) e3[j] <- mean(f3,na.rm=t) # Quantile q11[j] <- quantile(f1,0.025,na.rm=t) q12[j] <- quantile(f1,0.975,na.rm=t) q21[j] <- quantile(f2,0.025,na.rm=t) q22[j] <- quantile(f2,0.975,na.rm=t) q31[j] <- quantile(f3,0.025,na.rm=t) q32[j] <- quantile(f3,0.975,na.rm=t) setwd("/media/data/studium/6. Semester/Nichtlineare dynamische Systeme") d <- list(e1,e2,e3,q11,q12,q21,q22,q31,q32,f1,f2,f3) # save(d,file="realisationsanzahlcir.rdata") load("realisationsanzahlcir.rdata") # Erwartungswerte par(mfrow=c(3,1)) # theta1 plot(k,d[[1]],type="l",ylim=range(c(d[[1]],d[[4]],d[[5]])),main="",xlab="anzahl Realisierungen", ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(k,d[[4]],col="blue") lines(k,d[[5]],col="blue") lines(k, rep(0.2,50),lty="dashed") legend(3000,0.53,c("ml-schätzung","0.025 und Quantil","wahrer Wert"), col=c("red","blue","black"),lty=c(1,1,2)) #theta2 plot(k,d[[2]],type="l",ylim=range(c(d[[2]],d[[6]],d[[7]])),main="",xlab="anzahl Realisierungen", ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(k,d[[6]],col="blue") lines(k,d[[7]],col="blue") lines(k, rep(0.06,50),lty="dashed") legend(3000,1,c("ml-schätzung","0.025 und Quantil","wahrer Wert"),col=c("red","blue","black"), lty=c(1,1,2)) #theta3 plot(k,d[[3]],type="l",ylim=range(c(d[[3]],d[[8]],d[[9]])),main="",xlab="anzahl Realisierungen", ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(k,d[[8]],col="blue") lines(k,d[[9]],col="blue") lines(k, rep(0.15,50),lty="dashed") legend(3000,0.17,c("ml-schätzung","0.025 und Quantil","wahrer Wert"), col=c("red","blue","black"),lty=c(1,1,2)) # asymptotisch normalverteilte Daten? (laut Buch) par(mfrow=c(1,2)) qqnorm(d[[10]],main="",ylab="emprische Quantile",xlab="Theoretische Quantile") qqline(d[[10]]) qqnorm(d[[11]],main="",ylab="emprische Quantile",xlab="Theoretische Quantile") qqline(d[[11]]) par(mfrow=c(1,1)) qqnorm(d[[12]],main="",ylab="emprische Quantile",xlab="Theoretische Quantile") qqline(d[[12]]) # Bandbreitenveränderung set.seed(216) l <- exp(seq(-12,-2.2,0.2)) #l <- exp(seq(-10,-0.2,0.2)) e1 <- e2 <- e3 <- q11 <- q12 <- q21 <- q22 <- q31 <- q32<- numeric(length(l)) for (j in 1:length(l)){ f1 <- f2 <-f3 <- numeric(1000) for (i in 1:1000){ X <- sde.sim(x0=0.1, model="cir", theta=c(0.2,0.06,0.15),n=1000,delta=l[j]) try(fit <- mle(cir.lik, start=list(theta1=0.1,theta2=0.1,theta3=0.3),method="l-bfgs-b", lower=c(-2,0.001,0.001),upper=c(1,5,1))) f1[i] <- coef(fit)[[1]]

24 A Anhang 24 } f2[i] <- coef(fit)[[2]] f3[i] <- coef(fit)[[3]]} for (i in 2:1000){ if((is.na(f1[i]) is.na(f1[i-1]))==f){ if(f1[i]==f1[i-1]){ f1[i] <- NA f2[i] <- NA f3[i] <- NA }}} # Erwartungswert e1[j] <- mean(f1,na.rm=t) e2[j] <- mean(f2,na.rm=t) e3[j] <- mean(f3,na.rm=t) # Quantile q11[j] <- quantile(f1,0.025,na.rm=t) q12[j] <- quantile(f1,0.975,na.rm=t) q21[j] <- quantile(f2,0.025,na.rm=t) q22[j] <- quantile(f2,0.975,na.rm=t) q31[j] <- quantile(f3,0.025,na.rm=t) q32[j] <- quantile(f3,0.975,na.rm=t) setwd("/media/data/studium/6. Semester/Nichtlineare dynamische Systeme") e <- list(e1,e2,e3,q11,q12,q21,q22,q31,q32,f1,f2,f3) # save(e,file="bandbreitencir.rdata") load("bandbreitencir.rdata") # Erwartungswerte # theta1 plot(log(l),e[[1]],type="l",ylim=range(c(e[[1]],e[[4]],e[[5]])),main="theta_1",xlab="bandbreite", ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(log(l),e[[4]],col="blue") lines(log(l),e[[5]],col="blue") legend(100,0.19,c("ml-schätzung","0.025 und Quantil","wahrer Wert"), col=c("red","blue","black"),lty=c(1,1,2)) #theta2 plot(log(l),e[[2]],type="l",ylim=range(c(e[[2]],e[[6]],e[[7]])), main="theta_2",xlab="bandbreite",ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(log(l),e[[6]],col="blue") lines(log(l),e[[7]],col="blue") legend(100,0.19,c("ml-schätzung","0.025 und Quantil","wahrer Wert"),col=c("red","blue","black"), lty=c(1,1,2)) #theta3 plot(log(l),e[[3]],type="l",ylim=range(c(e[[3]],e[[8]],e[[9]])),main="theta_3",xlab="bandbreite", ylab="durchschnitt über 1000 Wiederholungen",col="red") lines(log(l),e[[8]],col="blue") lines(log(l),e[[9]],col="blue") legend(100,0.19,c("ml-schätzung","0.025 und Quantil","wahrer Wert"), col=c("red","blue","black"),lty=c(1,1,2))

25 A Anhang 25 Literatur Ball, P. (2005): Critical Mass: How one thing leads to another, Arrow Books, London. Fahrmeir, L., Künstler, R., Pigeot, I. und Tutz, G. (1999): Statistik - Der Weg zur Datenanalyse, 2. Auflage, Springer, Berlin. Iacus, S. M. (2008): Simulation and Inference for Stochastic Differential Equations, Springer, New York. Iacus, S. M. (2009): sde: Simulation and Inference for Stochastic Differential Equations, R package version URL: Kuo, H.-H. (2006): Introduction to Stochastic Integration, Springer, New York. R Development Core Team (2012): A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Wien, URL:

Maximum-Likelihood-Schätzung für das Black-Scholes-Mertonund das Cox-Ingersoll-Ross-Modell

Maximum-Likelihood-Schätzung für das Black-Scholes-Mertonund das Cox-Ingersoll-Ross-Modell Maximum-Likelihood-Schätzung für das Black-Scholes-Mertonund das Cox-Ingersoll-Ross-Modell Vortrag im Seminar Grundlagen der Simulation und Statistik von dynamischen Systemen Philipp Aschersleben Fakultät

Mehr

Einige parametrische Familien für stochastische Prozesse

Einige parametrische Familien für stochastische Prozesse Einige parametrische Familien für stochastische Prozesse Seminar: Grundlagen der und Statistik von dynamischen Systemen 26. November 2014 Inhaltsverzeichnis 1 Einleitung 2 3 4 5 Einleitung Ziel des Vortrages:

Mehr

Euler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012

Euler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012 Euler-Approximation Leonie van de Sandt TU Dortmund Prof. Dr. Christine Müller 5. Juni 2012 Leonie van de Sandt (TU Dortmund) Euler-Approximation 5. Juni 2012 1 / 26 Inhaltsverzeichnis 1 Einleitung Leonie

Mehr

Pseude-Likelihood-Methode

Pseude-Likelihood-Methode Pseude-Likelihood-Methode Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen Andrei Durtca Technische Universität Dortmund 12. Januar 2015 Inhaltsverzeichnis 1 Einleitung 2 Pseude-Likelihood-Methode

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Seminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund

Seminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund Seminarvortrag Euler-Approximation Marian Verkely TU Dortmund 03.12.14 1 / 33 Inhaltsverzeichnis 1 Motivation 2 Simulierte Prozesse 3 Euler-Approximation 4 Vasicek-Prozess: Vergleich analytische Lösung

Mehr

Ausarbeitung zum Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen (SS 2012)

Ausarbeitung zum Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen (SS 2012) Ausarbeitung zum Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen (SS 2012) Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess Daniel Horn 15. Juni 2012 Dozentin:

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Pseudo-Likelihood-Methode

Pseudo-Likelihood-Methode Technische Universität Dortmund Pseudo-Likelihood-Methode Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen (überarbeitet) Verfasser: Andrei Durtca Dozentin: Prof. Dr. Christine

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Geometrische Brownsche Bewegung und Brownsche Brücke

Geometrische Brownsche Bewegung und Brownsche Brücke Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen SoSe 2012 Geometrische Brownsche Bewegung und Brownsche Brücke Korinna Griesing 10. April 2012 Dozentin: Prof. Dr. Christine Müller

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung

Mehr

Einige parametrische Familien für stochastische Prozesse

Einige parametrische Familien für stochastische Prozesse Technische Universität Dortmund Fakultät Statistik Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen Einige parametrische Familien für stochastische Prozesse Ausarbeitung Dozentin:

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Generalisierte Momentenmethode

Generalisierte Momentenmethode Im Rahmen des Seminars Grundlagen der Simulation und Statistik von dynamischen Systemen Generalisierte Momentenmethode Sebastian Szugat 26. Juni 2012 Prof. Dr. Christine Müller Inhaltsverzeichnis Inhaltsverzeichnis

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

Seminar-Bericht. Euler-Approximation. Grundlagen der Simulation und Statistik von dynamischen Systemen Autor: Marian Verkely.

Seminar-Bericht. Euler-Approximation. Grundlagen der Simulation und Statistik von dynamischen Systemen Autor: Marian Verkely. Seminar-Bericht Euler-Approximation Grundlagen der Simulation und Statistik von dynamischen Systemen 19.11.2014 Autor: Marian Verkely Dozent: Prof. Dr. Christine Müller Inhaltsverzeichnis 1 Einleitung

Mehr

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

How To Find Out If A Ball Is In An Urn

How To Find Out If A Ball Is In An Urn Prof. Dr. P. Embrechts ETH Zürich Sommer 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Geometrische Brownsche Bewegung und Brownsche Brücke

Geometrische Brownsche Bewegung und Brownsche Brücke Geometrische Brownsche Bewegung und Brownsche Brücke Korinna Griesing Dozentin: Prof. Dr. Christine Müller 17. April 2012 Korinna Griesing 1 (26) Inhalt Motivation Statistische Methoden Geometrische Brownsche

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare 17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess

Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess Seminarbericht zum Thema Grundlagen der Simulation und Statistik von dynamischen Systemen Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess 02.12.2014 Verfasser: Manuel Keller Dozentin: Prof.

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

4 Statistik der Extremwertverteilungen

4 Statistik der Extremwertverteilungen In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Auswahl von Schätzfunktionen

Auswahl von Schätzfunktionen Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Prof. Dr. Michael Havbro Faber 8.04.009 Inhalt der heutigen Vorlesung Auswahl einer Verteilungsfunktion: Wahrscheinlichkeitspapier pp Schätzung und Modellentwicklung:

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik [statistical inference] Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung 0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau

Mehr

Uwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler

Uwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler Uwe Hassler Statistik im Bachelor-Studium Eine Einführung für Wirtschaftswissenschaftler ^ Springer Gabler 1 Einführung 1 2 Beschreibende Methoden univariater Datenanalyse 5 2.1 Grundbegriffe 5 2.2 Häufigkeitsverteilungen

Mehr

Musterlösung der Klausur vom 29. Juli 2003

Musterlösung der Klausur vom 29. Juli 2003 Statistik für Bioinformatiker SoSe 2003 Rainer Spang Musterlösung der Klausur vom 29. Juli 2003 Aufgabe 1. 10 Definieren Sie die folgenden statistischen Begriffe in einem Satz oder in einer Formel: 1.

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Schweizer Statistiktage, Aarau, 18. Nov. 2004

Schweizer Statistiktage, Aarau, 18. Nov. 2004 Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2017 Monte Carlo Methode für numerische Integration Sei g : [0, 1] R stetige Funktion; man möchte 1 0 g(t)dt numerisch approximieren mit Hilfe von Zufallszahlen: Sei (U n ) n eine Folge

Mehr

10 Statistisches Schätzen

10 Statistisches Schätzen 10 Statistisches Schätzen 620 10 Statistisches Schätzen 10.1 Punktschätzung 623 10.1.1 Schätzer und ihre Gütekriterien 623 10.1.2 Erwartungstreue 627 10.1.3 Erwartete quadratische Abweichung (MSE) 634

Mehr

Aufgabe (12 Punkte) Sei A A eine σ-algebra. (a) Man zeige: Ist X : Ω R A -messbar, dann ist X A-messbar. (b) Gilt die Umkehrung von (a)?

Aufgabe (12 Punkte) Sei A A eine σ-algebra. (a) Man zeige: Ist X : Ω R A -messbar, dann ist X A-messbar. (b) Gilt die Umkehrung von (a)? Am 5. Mai 2007 wurde zum dritten Mal eine stochastische Eingangsprüfung durchgeführt. Insgesamt konnten maximal 56 Punkte erreicht werden, zum Bestehen der Prüfung waren mindestens 26 Punkte notwendig.

Mehr

Nachklausur Mathematik für Biologen WS 08/09

Nachklausur Mathematik für Biologen WS 08/09 Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

Diffusionsprozesse und lineare stochastische DGL

Diffusionsprozesse und lineare stochastische DGL Diffusionsprozesse und lineare stochastische DGL Michele Bieber TU Dortmund - Fakultät Statistik 15. Mai 2012 Inhaltsverzeichnis 1 Einleitung 2 Diffusionsprozesse Stochastische DGL eines Diffusionsprozesses

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG E-Mail: Markus.Schumacher@physik.uni-freiburg.de

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr