Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess
|
|
- Günter Brauer
- vor 5 Jahren
- Abrufe
Transkript
1 Seminarbericht zum Thema Grundlagen der Simulation und Statistik von dynamischen Systemen Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess Verfasser: Manuel Keller Dozentin: Prof. Dr. Christine Müller
2 Inhaltsverzeichnis 1 Einleitung 2 2 Schätzmethoden für den Vasicek-Prozess Der Vasicek-Prozess Maximum-Likelihood-Schätzung Kleinste-Quadrate-Schätzung Simulation 8 4 Zusammenfassung und Ausblick 15 Literaturverzeichnis 17 A Anhang 18
3 1 Einleitung Der Ornstein-Uhlenbeck- bzw. Vasicek-Prozess wird für die Modellierung verschiedenster Prozesse eingesetzt. So wird er z.b. zur Modellierung kurzfristiger Zinssätze genutzt. Da jedoch im Allgemeinen nicht alle Parameter des Prozesses bekannt sind, müssen diese geschätzt werden. Dazu existieren verschiedenste Methoden. Es sei zunächst die am weitesten Verbreitete genannt, die Maximum-Likelihood-Schätzung. Unter gewissen Voraussetzungen ist es möglich diese exakt zu bestimmen. Oft muss jedoch eine numerische Lösung herangezogen werden. Vielfach wird aber auch eine lineare Regression und damit die KQ-Schätzung verwendet. Eine weitere Alternative, die insbesondere bei verallgemeinerten Ornstein-Uhlenbeck-Prozessen eingesetzt wird, ist die Kerndichte-Schätzung. In diesem Bericht wird jedoch nur eine spezielle Klasse des Prozesses betrachtet, weswegen auf diese Art der Schätzung verzichtet wird. Im Folgenden werden die Maximum-Likelihood-Methode, die Kleinste-Quadrate-Methode und die exakte Lösung miteinander verglichen. Dazu werden zunächst die genutzten Methoden beschrieben. Das bedeutet, dass als erstes der Ornstein-Uhlenbeck- bzw. Vasicek- Prozess beschrieben wird. Im Anschluss wird auf die verschiedenen genutzten Schätzverfahren eingegangen. In einem weiteren Teil werden verschiedene Simulationen des Prozesses und ihre verschiedenen Schätzungen betrachtet. Dabei wird auf die Güte der Schätzer insofern eingegangen, dass zum Einen die Nähe des Schätzers am wahren Parameter betrachtet wird und zum Anderen, ob die gebildeten Konfidenzintervalle den wahren Parameter überdecken. Zum Abschluss wird versucht eine Empfehlung zu geben, welcher Schätzer sich am besten eignet. 2 Schätzmethoden für den Vasicek-Prozess Im Folgenden wird einleitend der Ornstein-Uhlenbeck- bzw. Vasicek-Prozess skizziert. Für weitere Details zum Prozess sei an dieser Stelle auf einen früheren Bericht verwiesen. Anschließend werden die genutzten Schätzmethoden, namentlich die Maximum-Likelihood- Methode und die KQ-Schätzung, beschrieben. Da für die Maximum-Likelihood-Methode ein Optimierungsalgorithmus verwendet wird, wird auch dieser kurz beschrieben. Außerdem wird für einen Spezialfall des Prozesses eine exakte Lösung angegeben. Soweit nicht anders kenntlich gemacht sind die Methoden aus Iacus 2008 entnommen 2.1 Der Vasicek-Prozess Der Vasicek-Prozess beschreibt die eindeutige Lösung der Differentialgleichung dx t = (θ 1 θ 2 X t ) dt + θ 3 dw t, X 0 = x 0. 2
4 Bei diesem Prozess gilt θ 1, θ 2 R und θ 3 R +. W t beschreibt den Wiener Prozess, welcher in einem früheren Bericht bereits beschrieben worden ist. Falls θ 2 > 0 gilt, so wird von einem mean reverting process gesprochen. Dies bedeutet, dass der Prozess um das Gleichgewichtsniveau schwankt. Eine weitere Definition des Prozesses ist über eine Umparametrisierung möglich, wodurch die Parameter leichter zu interpretieren sind. Setze dazu µ = θ 1 θ 2, θ = θ 2 und σ = θ 3. Dann ist die Differentialgleichung durch dx t = θ (µ X t ) dt + σdw t, X 0 = x 0. gegeben. Dabei gibt µ das langfristige Gleichgewichtsniveau an. θ beschreibt die Anziehungskraft zum Gleichgewichtsniveau und σ die Stärke des Einflusses vom Wiener-Prozess und damit die Schwankungsbreite. σ wird auch als Diffusionskoeffizient bezeichnet. Die Lösung der Differentialgleichung ist dann gegeben durch bzw. bei Umparametrisierung durch X t = θ ( 1 + x 0 θ ) t 1 e θ2t + θ 3 e θ2(t u) dw u θ 2 θ 2 0 t X t = µ + (x 0 µ) e θt + σ 0 e θ(t u) dw u. ( ( ) θ X t folgt dabei einer Normalverteilung und es gilt X t N 1 θ 2 + x 0 θ 1 θ 2 e θ2t, θ2 3(1 e 2θ 2 t ) 2θ 2 ). 2.2 Maximum-Likelihood-Schätzung Betrachte nun die allgemeine Darstellung der stochastischen Differentialgleichung dx t = b(x t, θ)dt + σ(x t, θ)dw t. Dabei ist θ Θ R p der zu schätzende p-dimensionale Parametervektor. Die Funktionen b : R Θ R und σ : R Θ R + werden dabei als bekannt vorausgesetzt und seien so gewählt, dass die obige Differentialgleichung eine Lösung besitzt. Der Zustandsraum des Prozesses wird durch I = (l, r) beschrieben, wobei l < r eine offene Menge für alle θ ist. Außerdem soll für jede Zufallsvariable ξ auf I jedes θ Θ eine eindeutige Lösung für X 0 = ξ besitzen. Unter verschiedenen Annahmen existiert dann eine stationäre Verteilung π θ, wobei die Lösung der Differentialgleichung für X 0 = ξ π θ strikt stationär 3
5 und ergodisch ist. Unter gewissen Voraussetzungen und wenn π θ existiert, gilt 1 π θ (x) = M(θ)σ 2 (x, θ)s(x, θ) mit x s(x, θ) = exp 2 b(y, θ) σ 2 (y, θ) dy. Die bedingte Verteilung von X t X 0 π θ sei mit P θ, die bedingte Dichte mit p θ (t, x) beschrieben. X ist zeithomogen. Daher beschreibt p θ (t, x) gerade die Dichte von X t+s X s = x t 0. Zur Schätzung von θ wird im stetigen Fall zunächst die quadratische Variation genutzt, um den Teil von θ zu berechnen, der σ beeinflusst. Es gilt nämlich < X, X > t = lim n 2 n k=1 x 0 (X t k/2 n X t (k 1)/2 n) 2 = t 0 σ 2 (X s, θ)ds. Der Rest der Parameter kann dann mit der Maximum-Likelihood-Methode bestimmt werden. Sobald der Diffusionskoeffizient gegeben ist, ergibt sich die Likelihoodfunktion durch L T (θ) = exp T 0 b(x s, θ) σ 2 (X s ) dx s 1 T 2 0 b 2 (X s, θ) σ 2 (X s ) ds. θ wird dann also durch die Maximierung der Likelihood geschätzt. Da es jedoch in der Praxis meist unmöglich ist, den stetigen Verlauf des Prozesses zu beobachten, muss von zeitdiskreten Beobachtungen ausgegangen werden. Dann kann obige Methode nicht mehr in der Form verwendet werden. Seien nun endlich viele Beobachtungen zu Zeitpunkten t i = i i, i = 1,..., n gegeben und sei T = n n. Der Einfachheit halber sei die i-te Beobachtung zum Zeitpunkt t i mit X i bezeichnet. Falls nun T gilt, können asymptotische Überlegungen in Betracht gezogen werden. Aufgrund der Markov- Eigenschaft gilt p θ (X i X i 1,..., X 0 ) = p θ (X i X i 1 ). Damit ist die Likelihood gegeben durch L n (θ) = n p θ (, X i X i 1 )p θ (X 0 ). Die Schätzer sind dann gegeben durch die Maximierung der Likelihood. Da die Maximierung der Likelihood äquivalent zur Maximierung der Log-Likelihood ist und diese leichter zu bestimmen ist, wird diese genutzt. Die Log-Likelihood ist gegeben durch logl n (θ) = n log(p θ (, X i X i 1 )) + log(p θ (X 0 )) = n l i (θ) + log(p θ (X 0 )). Im Allgemeinen ist die Verteilung von X 0 jedoch unbekannt oder schwierig zu bestimmen. Bei wachsenden Beobachtungszahlen wird der Einfluss von p θ (X 0 ) allerdings immer geringer, so dass im Folgenden von p θ (X 0 ) = 1 ausgegangen wird. Für die Optimierung 4
6 werden dann die partiellen Ableitungen benötigt. Diese sind gegeben durch l n (θ) θ = n l i (θ) θ = n Die exakte Likelihood ist jedoch in den seltensten Fällen bekannt, aber unter verschiedenen Annahmen kann zumindest die Konsistenz und asymptotische Normalverteilung sichergestellt werden. Diese Annahmen sind Annahme 2.1 (Lineares Wachstum) Es existiert ein konstantes K unabhängig von θ, so dass für alle x gilt: l i (θ) θ 1. l i (θ) θ p b(x, θ) + σ(x, θ) K(1 + x ). Annahme 2.2 (Globale Lipschitzstetigkeit) Es existiert ein konstantes K unabhängig von θ, so dass für alle x, y R gilt: b(x, θ) b(y, θ) + σ(x, θ) σ(y, θ) K x y Annahme 2.3 (Positiver Diffusionskoeffizient) inf x σ2 (x, θ) > 0 Annahme 2.4 (Existenz der Momente) Für jedes k > 0 existiert das k-te Moment des Diffusionsprozesses und es gilt: sup E X t k < t Annahme 2.5 (Glätte der Koeffizienten) Die Koeffizienten b und σ und ihre ersten drei Ableitungen sind glatt und wachsen polynomiell in x Diese Annahmen gelten für den Vasicek-Prozess. Daher sind die Maximum-Likelihood- Schätzer für den Prozess konsistent und die Parameter asymptotisch normalverteilt. Eine analytische Bestimmung der Schätzer ist jedoch in den meisten Fällen schwierig, daher wird zumeist eine numerische Näherungslösung bestimmt. Ein viel verwendeter Algorithmus dazu ist der BFGS-Algorithmus, welcher z.b. auch von der R-Funktion mle aus dem stats4 Paket zur Verfügung gestellt wird. Dieser ist robust und besitzt eine superlineare Konvergenzrate. Der BFGS-Algorithmus sei im Folgenden in seinen Grundzügen vorgestellt. Für detaillierte Informationen sei auf Nocedal und Wright 1999 verwiesen. Algorithmus 1 ist dabei Nocedal und Wright 1999 entnommen. 5
7 Algorithmus 1 BFGS-Methode 1: Gegeben: Startpunkt x 0, Konvergenz-Toleranz ɛ > 0, Approximation der inversen Hesse-Matrix H 0 2: setze k 0 3: solange f k > ɛ 4: Berechne Suchrichtung 5: p k = H k f k 6: Setze x k+1 = x k + α k p k, α k über Linesearch-Prozedur berechnen 7: Definiere s k = x k+1 x k und y k = f k+1 f k 8: Berechne H k+1 9: setze k k : Schleifenende H k wird dabei berechnet durch H k+1 = (I ρ k s k y T k )H k (I ρ k y k s T k ) + ρ k s k s T k mitρ k = 1 y T k s k Für Informationen zu Linesearch-Prozeduren sei auch hier auf Nocedal und Wright 1999 verwiesen. 2.3 Kleinste-Quadrate-Schätzung Eine Alternative zur Maximum-Likelihood-Schätzung bietet die Kleinste-Quadrate-Schätzung. Dazu betrachte die exakte Lösung des Ornstein-Uhlenbeck-Prozesses, welche gegeben ist durch X t = θ ( 1 + x 0 θ ) t 1 e θ2t + θ 3 e θ2(t u) dw u θ 2 θ 2 0 Eine rekursive Darstellung für diskrete Beobachtungen ist dann nach Phillips und Yu 2009 gegeben durch X t = e θ 2 t X t 1 + ( 1 e θ 2 t ) θ 1 θ 2 + θ 3 (1 e 2θ 2 t) κ t 2θ 2 mit κ t N(0, 1). Betrachte dieses Modell nun als Regression von X t gegen X t 1 von der Form y = a + bz + ɛ Setze y = X t und z = X t 1. Dann gilt b = e ˆθ 2 t ˆθ 2 t = log(b) ˆθ 2 = log(b) t. 6
8 Außerdem a = ( 1 e ˆθ 2 t ) ˆθ1 ˆθ 2 a ( ) = ˆθ 1 1 e ˆθ 2 t ˆθ ˆθ 1 = 2 aˆθ 2 (1 e ˆθ 2 t ) und 2ˆθ ˆθ 3 = sd(ɛ) 2 ). (1 e 2ˆθ 2 t Die Parameter im Regressionsmodell lassen sich durch n (( ) ( )) Xi 1 X 0:n 1 Xi X 1:n ˆb = n ( ), 2 Xi 1 X 0:n 1 â = 1 n n (X i ˆbX i ) und n ( ) 2 X i X 1:n (X i 1 X 0:n 1 )ˆb sd(ɛ) = n p bestimmen. Dabei beschreiben X 1:n bzw. X 0:n 1 die arithmetischen Mittelwerte von X 1 bis X n bzw. von X 0 bis X n 1 und p gibt die Anzahl Parameter im Regressionsmodell an. In der Anwendung auf den Prozess gilt also p = 2, falls der Mittelwert geschätzt wird und p = 1, falls der Mittelwert als bekannt vorausgesetzt wird. Für grundlegende Informationen zur linearen Regression sei an dieser Stelle z.b. auf Groß 2010 verwiesen. Für den Fall, dass im Ornstein-Uhlenbeck-Prozess θ 1 = 0 gesetzt wird, existieren nach Iacus 2008 exakte ML-Schätzungen für die beiden weiteren Parameter. Diese sind dann gegeben durch und n ˆθ 2,n = 1 log X i 1 X i n Xi 1 2 ˆθ 2 3,n = 2ˆθ 2,n ) n (1 e 2 ˆθ 2,n n ) 2 (X i X i 1 e ˆθ 2,n 7
9 Diese Schätzungen können ebenso aus obiger KQ-Schätzung hergeleitet werden. Die Forderung θ 1 = 0 bedeutet für das Modell, dass der Mittelwert nicht mehr geschätzt werden muss, und es gilt ˆb = n (X i 1 X i ) n Xi 1 2 und n ( ) 2 X i X i 1ˆb sd(ɛ) =. n Dabei ist zu beachten, dass für die Bestimmung der Standardabweichung hier durch n geteilt wird und nicht wie oben durch n 1. Es wird also die ML-Schätzung der Varianz verwendet. Setze nun ˆb in ˆθ 2 ein: ˆθ 2 = Daraus folgt dann aber log n (X i 1 X i ) n Xi 1 2 t. ˆb = e t ˆθ2. Setze jetzt ˆb in sd(ɛ) und sd(ɛ) in ˆθ 3 ein und quadriere anschließend: n ) 2 (X i X i 1 e t ˆθ 2 ˆθ 2 3 = n 2ˆθ 2 (1 e 2ˆθ 2 t ). Zum Schluss noch t = festsetzen und es folgt der exakte Schätzer nach Iacus Simulation Im Folgenden werden verschiedene Simulationen des Vasicek-Prozesses betrachtet. Dabei werden zum Einen die Maximum-Likelihood-Schätzung und die KQ-Schätzung miteinander verglichen. Außerdem wird im Spezialfall θ 1 = 0 auch die exakte Lösung zum Vergleich herangezogen. In der ersten Simulation werden außerdem die zu den Schätzungen gehörenden Konfidenzintervalle betrachtet und die Überdeckungswahrscheinlichkeit überprüft. Für die Simulationen wird die Programmiersprache R Core Team 2013 genutzt. Im Speziellen wird hier für die Prozess-Simulation das Paket sde und für die Likelihood- Schätzung der mle-befehl aus dem Paket stats4 genutzt. Für die numerische Berechnung 8
10 der ML-Schätzer wird der BFGS-Algorithmus verwendet. Die Bestimmung der Konfidenzintervalle erfolgt im Falle des ML-Schätzers durch die numerische Methode. Für die KQ- Schätzung werden zunächst die Konfidenzintervalle des zugrunde liegenden linearen Modells bestimmt und im Anschluss ebenso wie die Parameterschätzungen transformiert (vgl. Kapitel 2.3). Betrachte zunächst den Vasicek-Prozess mit Parametervektor (θ 1, θ 2, θ 3 ) T = (3, 1, 2) T. Dann ergibt sich für die Lösung der zugehörigen Differentialgleichung t X t = 3 + (x 0 3) e t e (t u) dw u. Als Schrittlänge sei zunächst i = = 1 gewählt. Die Anzahl Beobachtungen wird auf n = 1000 festgesetzt. So ist sichergestellt das lim n n = gilt. Ein beispielhafter Verlauf dieses Prozess ist in Abbildung A.1 zu sehen. Als Startwert für den BFGS-Algorithmus wird der Vektor (θ 1, θ 2, θ 3 ) = (1, 0.5, 1) übergeben. Tabelle 1 zeigt die Punktschätzer und 95% Konfidenzintervalle der Maximum-Likelihood-Schätzung. Es ist zu erkennen, dass die Punktschätzer nur geringfügig von den wahren Parametern abweichen. Außerdem überdecken die Konfidenzintervalle jeweils den wahren Parameter und scheinen relativ schmal zu seien. Schätzung untere KI-Grenze obere KI-Grenze θ θ θ Tabelle 1: ML-Parameterschätzung und 95% Konfidenzintervalle (gerundet) Zum Vergleich sind in Tabelle 2 KQ-Schätzungen und Konfidenzintervalle zu sehen. Die Konfidenzintervalle sind dadurch bestimmt, dass zunächst die Intervallgrenzen der Regressionsschätzung bestimmt werden und anschließend rücktransformiert werden (vgl. Kapitel 2.3). Auch hier liegen die Schätzungen nah an den wahren Parametern und auch die Konfidenzintervalle sind schmal. Sie sind sogar schmaler als die der ML-Schätzung. Insbesondere bei der Schätzung von θ 1 scheint die Schätzung deutlich genauer zu werden. Aufgrund dessen, dass der wahre Parameter allerdings nicht im Konfidenzintervall enthalten ist, scheint der Schätzer jedoch verzerrt zu sein. Schätzung untere KI-Grenze obere KI-Grenze θ θ θ Tabelle 2: KQ-Parameterschätzung und 95% Konfidenzintervalle (gerundet) 9
11 Um dies zu bestätigen und auch die Genauigkeit der Schätzungen zu verifizieren, werden als nächstes die Schätzungen von 1000 unterschiedlichen Simulationen bestimmt. Tabelle 3 zeigt die mittleren Parameterschätzungen und die in 1000 Durchläufen realisierten Überdeckungswahrscheinlichkeiten der Konfidenzintervalle. Die durchschnittlichen Schätzungen liegen sogar noch näher an den wahren Parameterwerten als die oben realisierten. Dies deutet auf eine gute Schätzung hin. Bei der KQ-Schätzung scheint die Simulation die Vermutung, dass der Schätzer für θ 1 verzerrt ist, zu bestätigen. Daher scheint die Forderung nach θ 1 = 0 in Iacus 2008 durchaus berechtigt. Auch das Konfidenzintervall für θ 3 hält die vorgegebene Überdeckungswahrscheinlichkeit nicht ein. Die Schätzung scheint aber bei weitem nicht so stark verzerrt. Die ML-Schätzung, die größere Konfidenzintervalle als die KQ-Schätzung ergibt, scheint ihre Aufgabe zu erfüllen. Die durchschnittlichen Schätzungen weichen kaum von den wahren Parametern ab und auch die Überdeckungswahrscheinlichkeiten werden eingehalten. Durchschnitt ML-Schätzung Überdeckungswahrscheinlichkeit KI θ θ θ Durchschnitt KQ-Schätzung Überdeckungswahrscheinlichkeit KI θ θ θ Tabelle 3: Durchschnittliche Schätzwerte und Überdeckungswahrscheinlichkeiten (gerundet) Da für die Parameterschätzung zumindest eine asymptotische Normalverteilung vorausgesetzt wird, ist diese im nächsten Schritt zu überprüfen. Betrachte dazu Abbildung 1. Die Annahme der Normalverteilung scheint berechtigt. Zur Bestätigung könnten noch Tests angewendet werden. Auf diese wird jedoch in diesem Bericht verzichtet. 10
12 ML Schätzung für θ 1 QQ Plot KQ Schätzung für θ 1 QQ Plot ML Schätzung für θ 2 QQ Plot KQ Schätzung für θ 2 QQ Plot ML Schätzung für θ 3 QQ Plot KQ Schätzung für θ 3 QQ Plot Abbildung 1: QQ-Plots der Parameterschätzungen Als nächstes wird untersucht, wie sich eine Verletzung der Annahme lim n n n = auf die Schätzung auswirkt. Aus diesem Grund sei weiter n = 1000 festgesetzt. Allerdings wird die Schrittlänge auf i = = gesetzt. Es ergibt sich also n n = 1, wodurch die Konvergenz verletzt ist. Als erstes wird nun wieder die ML-Schätzung betrachtet. Tabelle 4 zeigt die so geschätzten Parameter und Konfidenzintervalle. Es fällt auf, dass die Schätzungen weit von den wahren Parametern entfernt sind. Die Konfidenzintervalle sind mit Ausnahme von dem von ˆθ 3 sehr breit. Das dritte Konfidenzintervall ist zwar schmal, überdeckt jedoch den wahren Parameter nicht. Dies lässt vermuten, dass, während die Schätzer für θ 1 und θ 2 eine hohe Varianz aufzeigen, der Schätzer für θ 3 verzerrt ist. Schätzung untere KI-Grenze obere KI-Grenze θ θ θ Tabelle 4: ML-Parameterschätzung und 95% Konfidenzintervalle (gerundet) Bei genauerer Betrachtung des Schätzers für θ 3 fällt auf, dass sich dieser nur bis auf das Vorzeichen vom wahren Parameter unterscheidet. Aus diesem Grund wird eine weitere 11
13 ML-Schätzung mit Startvektor (2, 2, 1.5) T durchgeführt. Die ersten beiden Schätzer sind auch hier sehr weit vom wahren Parameter entfernt (vgl. Tabelle 5). Der Schätzer für θ 3 ist jedoch nah am wahren Parameter und auch das Konfidenzintervall überdeckt den wahren Parameter. Es scheint also als lägen bei diesem Modell mehrere lokale Maxima bzgl. θ 3 vor. Dies ist ein Schwachpunkt des BFGS-Algorithmus. Schätzung untere KI-Grenze obere KI-Grenze θ θ θ Tabelle 5: ML-Parameterschätzung und 95% Konfidenzintervalle mit Startvektor (2, 2, 1.5) T (gerundet) Die KQ-Schätzung ist der ML-Schätzung sehr ähnlich und weißt somit die gleichen Probleme auf (vgl. Tabelle 6). Der dritte Parameter wird wie bei der ML-Schätzung bei passendem Startwert nahezu exakt geschätzt. Allerdings überdeckt das Konfidenzintervall nicht den wahren Parameter. Schätzung untere KI-Grenze obere KI-Grenze θ θ θ Tabelle 6: KQ-Parameterschätzung und 95% Konfidenzintervalle (gerundet) Um dies zu verifizieren wird wiederum eine Simulation mit 1000 Iterationen durchgeführt. Auch hier wird aufgrund obiger Erkenntnis als Startvektor für die ML-Schätzung der Vektor (2, 2, 1.5) T gewählt. Es fällt auf, dass auch die durchschnittlichen Schätzer weit von den wahren Parametern entfernt sind (vgl. Tabelle 7). Die Schätzer für θ 3 scheinen jedoch zu passen. Außerdem scheint anhand der QQ-Plots auch die Normalverteilungsannahme verletzt zu sein. Eine Ausnahme bildet die Verteilung von θ 3 (vgl. Abbildung 2). ML-Schätzung KQ-Schätzung θ θ θ Tabelle 7: Durchschnittliche Schätzwerte mit Startvektor (2, 2, 1.5) T (gerundet) 12
14 ML Schätzung für θ 1 QQ Plot KQ Schätzung für θ 1 QQ Plot ML Schätzung für θ 2 QQ Plot KQ Schätzung für θ 2 QQ Plot ML Schätzung für θ 3 QQ Plot KQ Schätzung für θ 3 QQ Plot Abbildung 2: QQ-Plots der Parameterschätzungen Anschließend werden die Maximum-Likelihood-Schätzer und KQ-Schätzer mit den exakten Schätzern verglichen. Hier wird die Schrittlänge wieder wie im ersten Fall gewählt ( i = = 1), um die Konvergenz sicherzustellen. Die Parameter müssen jedoch leicht abgeändert werden, um eine exakte Schätzung zu ermöglichen. Für die exakte Schätzung muss θ 1 = 0 gelten. Die weiteren Parameter seien auf (θ 2, θ 3 ) T = (3, 2) T gesetzt. Es fällt auf, dass die Schätzungen bis auf zwei Nachkommastellen identisch sind (vgl. Tabelle 8). ML-Schätzung KQ-Schätzung Exakte Schätzung θ θ Tabelle 8: Schätzwerte (gerundet) Auch hier wird wieder eine Simulation mit 1000 Wiederholungen durchgeführt. Es fällt auf, dass auch die durchschnittlichen Schätzer nah an den wahren Parametern liegen (vgl. Tabelle 9). Die ML-Schätzung weicht allerdings etwas stärker von den wahren Parametern ab. Sie bietet jedoch die Möglichkeit asymptotische Standardabweichungen und damit Konfidenzintervalle zu bestimmen. Auch die KQ-Schätzung bietet die Möglichkeit 13
15 zur Bildung von Konfidenzintervallen. Diese halten allerdings wie zuvor gesehen die vorgegebene Überdeckungswahrscheinlichkeit nicht ein. Bei der exakten Schätzung ist die Bestimmung von Standardabweichungen nicht direkt möglich. Wie bereits in Kapitel 2.3 gezeigt sind die exakte Schätzung und die KQ-Schätzung gleich, falls die Varianz über Maximum-Likelihood geschätzt wird. Dies führt zu Abweichungen ab der vierten Nachkommastelle und ist somit auch zu vertreten. ML-Schätzung KQ-Schätzung Exakte Schätzung θ θ Tabelle 9: Durchschnittliche Schätzwerte (gerundet) In einer weiteren Simulation soll nun das Verhalten der Schätzverfahren bei einem explosiven Vasicek-Prozess untersucht werden. Ein explosiver Prozess entsteht dann, wenn der Parameter θ 2 negativ ist. Zunächst konnte festgestellt werden, dass die numerische ML-Schätzung bei zu stark explosiven Prozessen nicht konvergiert. Daher sind für die Simulation Einstellungen gewählt worden, die ein zu stark explosives Verhalten vermeiden. So wurde (θ 1, θ 2, θ 3 ) T = (1, 0.01, 1) T gewählt. Außerdem wurde als Beobachtungszahl n = 100 und als Schrittweite i = = 1 gewählt. Dies führt dazu, dass auch in dieser 10 Simulation die Konvergenz von T = n sichergestellt ist. Als Startparameter für den BFGS-Algorithmus wird (θ 1, θ 2, θ 3 ) T = (0.5, 1, 0.5) T gewählt. Sowohl die ML- als auch die KQ-Schätzung scheinen in diesem leicht explosiven Fall weiterhin zu guten Ergebnissen zu führen (vgl. Tabelle 10 und 11). Auch die Konfidenzintervalle scheinen bis auf eine Ausnahme gut zu sein. So überdecken alle Konfidenzintervalle bis auf das der KQ-Schätzung für θ 3 den wahren Parameter. Ebenso scheint die Intervallbreite vertretbar. Schätzung untere KI-Grenze obere KI-Grenze θ θ θ Tabelle 10: Schätzwerte und Konfidenzintervalle ML (gerundet) Schätzung untere KI-Grenze obere KI-Grenze θ θ θ Tabelle 11: Schätzwerte und Konfidenzintervalle KQ (gerundet) Im Anschluss wird nun wiederum eine Simulation mit 1000 Iterationen durchgeführt. Die durchschnittlichen Schätzer und Überdeckungswahrscheinlichkeiten der Konfidenzintervalle sind in Tabelle 12 zu finden. Die durchschnittlichen Schätzer der beiden Verfahren 14
16 sind nahezu gleich. Es fällt auf, dass die Schätzung für θ 1 in beiden Fällen leicht verzerrt zu sein scheint. Die Schätzung für θ 3 trifft im Mittel den wahren Parameter. Allerdings hält hier das Konfidenzintervall der KQ-Schätzung die Überdeckungswahrscheinlichkeit nicht ein. Für θ 2 ergibt sich trotz negativer Einstellung eine positive Schätzung. Das lässt sich jedoch dadurch erklären, dass die Parametereinstellung, um einen zu stark explosiven Verlauf zu vermieden, nahe Null gewählt wurde. Außerdem fällt auf, dass ähnlich wie bei Verletzung der Konvergenz von T auch in diesem Fall für θ 1 und θ 2 die zugrunde liegende Normalverteilungsannahme verletzt zu sein scheint (vgl. Abbildung A.2). Durchschnitt ML-Schätzung Überdeckungswahrscheinlichkeit KI θ θ θ Durchschnitt KQ-Schätzung Überdeckungswahrscheinlichkeit KI θ θ θ Tabelle 12: Durchschnittliche Schätzwerte und Überdeckungswahrscheinlichkeiten (gerundet) Insgesamt ist die ML-Schätzung zu empfehlen. Sie bietet eine relativ exakte Schätzung und die Möglichkeit, leicht passende Konfidenzintervalle zu bestimmen, hat jedoch den Nachteil, dass der BFGS-Algorithmus eventuell nicht das globale Maximum findet. Dies kann jedoch durch mehrfaches durchführen der ML-Schätzung mit verschiedenen Startparametern gelöst werden. Die KQ-Schätzung bietet zwar dieselben Möglichkeiten, die Konfidenzintervalle halten jedoch die vorgegebene Überdeckungswahrscheinlichkeit nicht für jeden Parameter ein. Die exakte Schätzung hat den Nachteil, dass die Voraussetzung θ 1 = 0 benötigt wird. Ansonsten scheint sie jedoch auch zu empfehlen. Insbesondere auch, da durch den Zusammenhang zur KQ-Schätzung die Bestimmung von Konfidenzintervallen möglich wird. Problematisch wird diese Bestimmung jedoch, falls eine Intervallgrenze für ˆb negativ ist, denn dann ist die genutzte Rücktransformation nicht mehr möglich. Probleme ergeben sich auch dann, wenn die Konvergenzannahme von T verletzt ist. In diesem Fall ist nur noch die Schätzung für θ 3 brauchbar. Das führt dazu, dass in diesem Fall von allen Schätzverfahren in diesem Bericht abzuraten ist. Bei Betrachtung eines explosiven Vasicek Prozesses sind die Schätzungen ebenso mit Vorsicht zu behandeln. Bei einem zu stark explosiven Verlauf ist auch hier von beiden Schätzverfahren abzuraten. 4 Zusammenfassung und Ausblick In dieser Arbeit wurde untersucht, wie sich die Güte einer Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess im Vergleich zur exakten und Kleinste-Quadra- 15
17 te-schätzung beschreiben lässt. Außerdem wurde ermittelt, wie sich die Schätzungen unter Verletzung von Annahmen verhalten. Dazu wurde zunächst der Prozess beschrieben und auf die genutzten Schätzmethoden eingegangen. Es wurde festgestellt, dass die KQ-Schätzer und die exakten Schätzer bis auf die genutzte Varianzschätzung gleich sind. Anschließend wurden verschiedene Simulationen durchgeführt. Zum Einen wurde dabei von einem Idealtyp ausgegangen, um so zunächst die Schätzungen der Maximum-Likelihood-Methode und der Kleinste-Quadrate-Methode miteinander zu vergleichen. ( ) Dann wurde eine benötigte Annahme lim n = für die Maximum-Likelihood-Methode verletzt und untersucht wie sich dies auf die Schätzung der beiden Methoden aus- n wirkt. Anschließend wurde der Spezialfall, dass θ 1 im Prozess bekannt und gleich 0 ist, untersucht. Hier kann eine exakte Lösung bestimmt werden. Abschließend ist ein explosiver Vasicek-Prozess untersucht worden. Für alle vier Simulationen wurden außerdem um Zufälligkeiten in der Güte der Schätzung ausschließen zu können, jeweils 1000 Iterationen betrachtet und durchschnittliche Schätzer verglichen. Dabei ist in der idealtypischen Simulation aufgefallen, dass sowohl die KQ-Schätzungen als auch die exakten Schätzungen näher an den wahren Parametern liegen als die ML- Schätzungen. Es musste jedoch ebenso entdeckt werden, dass, die Konfidenzintervalle der KQ-Schätzungen im Allgemeinen nicht die vorgegebenen Überdeckungswahrscheinlichkeiten einhalten. Dies lässt sich auf die exakten Schätzer übertragen, sofern Konfidenzintervalle über den Umweg der KQ-Schätzung bestimmt werden sollen. Außerdem wurde festgestellt, dass sowohl ML- als auch KQ-Schätzungen unter Verletzung der Konvergenzannahme nicht mehr zu gebrauchen sind. Ebenso ist von diesen Schätzungen bei einem zu stark explosiven Verlauf des Prozesses abzuraten. Insgesamt wurde festgestellt, dass im Allgemeinen die ML-Schätzungen zu empfehlen sind, da diese im Vergleich zu den KQ-Schätzungen die Überdeckungswahrscheinlichkeiten der Konfidenzintervalle einhalten. Falls auf Konfidenzintervalle verzichtet werden kann und θ 1 = 0 als bekannt vorausgesetzt wird, so kann alternativ auf exakte Schätzer zurückgegriffen werden. Weiterführend macht es Sinn verallgemeinerte Ornstein-Uhlenbeck-Prozesse zu betrachten, z.b. sogenannte Levy-driven-Ornstein-Uhlenbeck-Prozesse. In diesem Zusammenhang können weitere Schätzmethoden, wie z.b. die Kerndichteschätzung oder Quasi-ML-Methoden verglichen werden. 16
18 Literatur [Groß 2010] Groß, Jürgen: Grundlegende Statistik mit R. Vieweg + Teubner, 2010 [Iacus 2008] Iacus, Stefano M.: Simulation and Inference for Stochastic Differential Equations. With R Examples. Springer, 2008 [Nocedal und Wright 1999] Nocedal, Jorge ; Wright, Stephen J.: Numerical Optimization. Springer, 1999 [Phillips und Yu 2009] Phillips, Peter C. B. ; Yu, Jun: Maximum likelihood and gaussian estimation of continuous time models in finance. In: Torben Andersen (Ed.), Handbook of Financial Time Series, Springer, 2009, S [R Core Team 2013] R Core Team: R: A Language and Environment for Statistical Computing. Vienna, Austria: R Foundation for Statistical Computing (Veranst.), URL 17
19 A Anhang X Zeit Abbildung A.1: Verlauf des simulierten Vasicek-Prozesses 18
20 ML Schätzung für θ 1 QQ Plot KQ Schätzung für θ 1 QQ Plot ML Schätzung für θ 2 QQ Plot KQ Schätzung für θ 2 QQ Plot ML Schätzung für θ 3 QQ Plot KQ Schätzung für θ 3 QQ Plot Abbildung A.2: QQ-Plots der Parameterschätzungen 1 require ( stats4 ) 2 require ( sde ) 3 ## ML - Simulation 1 4 dcou = function (x,t,x0, theta, log = FALSE ){ 5 Ex = theta [1] / theta [2] + ( x0 - theta [1] / theta [2]) * exp (- theta [2] * t) 6 Vx = theta [3]^2 * (1 - exp ( -2* theta [2] *t)) / (2 * theta [2]) 7 dnorm (x, mean =Ex, sd= sqrt (Vx), log = log ) 8 } 9 OU.lik = function ( theta1, theta2, theta3 ){ 10 n = length ( X) 11 dt = deltat ( X) 12 -sum ( dcou (X [2: n], dt, X [1:(n -1) ], c( theta1, theta2, theta3 ), log = TRUE ) ) 13 } 14 set. seed (123) 15 X = sde. sim ( model ="OU", theta = c (3,1,2),N = 1000, delta = 1) 16 fit = mle (OU.lik, start = list ( theta1 =1, theta2 =0.5, theta3 =1), 17 method = L-BFGS -B,lower = c(-inf,0,0) ) 18 summary ( fit ) 19 vcov ( fit ) 20 confint ( fit ) ## KQ - Simulation 1 23 delta =1 24 model = lm(x[ -1]~X [1:(( length (X) -1))]) 25 coefi = model $ coefficients 26 res = model $ residuals 27 theta2 = unname ( log ( coefi [2]) /-delta ) 28 theta1 = unname ( coefi [1] * theta2 /(1 - exp (- theta2 * delta ))) 19
21 29 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) 30 conftheta2 = log ( confint ( model ) [2,]) /-delta 31 conftheta1 =( confint ( model )[1,]* conftheta2 /(1 - exp (- conftheta2 * delta ))) 32 conftheta3 =sd(res )* sqrt (2* conftheta2 /(1 - exp ( -2* conftheta2 * delta ))) ## Mit 1000 Iterationen 36 set. seed (123) 37 erg1 = array ( dim = c (3,3,1000) ) 38 erg2 = array ( dim = c (3,3,1000) ) 39 for ( i in 1:1000) { 40 X = sde. sim ( model ="OU", theta = c (3,1,2),N = 1000, delta = 1) 41 fit = mle (OU.lik, start = list ( theta1 =1, theta2 =0.5, theta3 =1), 42 method = L- BFGS - B ) est = coef ( fit ) 45 int = confint ( fit ) 46 erg1 [,,i] = cbind (est, int ) model = lm(x[ -1]~X [1:(( length (X) -1))]) 49 coefi = model $ coefficients 50 res = model $ residuals 51 theta2 = unname ( log ( coefi [2]) /-delta ) 52 theta1 = unname ( coefi [1] * theta2 /(1 - exp (- theta2 * delta ))) 53 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) 54 conftheta2 = log ( confint ( model ) [2,]) /-delta 55 conftheta1 =( confint ( model )[1,]* conftheta2 /(1 - exp (- conftheta2 * delta ))) 56 conftheta3 =sd(res )* sqrt (2* conftheta2 /(1 - exp ( -2* conftheta2 * delta ))) 57 if( conftheta1 [2] < conftheta1 [1]) { 58 temp = conftheta1 [1] 59 conftheta1 [1]= conftheta1 [2] 60 conftheta1 [2]= temp 61 } 62 if( conftheta2 [2] < conftheta2 [1]) { 63 temp = conftheta2 [1] 64 conftheta2 [1]= conftheta2 [2] 65 conftheta2 [2]= temp 66 } 67 if( conftheta3 [2] < conftheta3 [1]) { 68 temp = conftheta3 [1] 69 conftheta3 [1]= conftheta3 [2] 70 conftheta3 [2]= temp 71 } 72 est = c( theta1, theta2, theta3 ) 73 int = rbind ( conftheta1, conftheta2, conftheta3 ) 74 erg2 [,,i] = cbind (est, int ) 75 } 76 conf1 = erg1 [,2,] < c (3,1,2) & erg1 [,3,] > c (3,1,2) 77 rowmeans ( conf1 ) 78 c( mean ( erg1 [1,1,]), mean ( erg1 [2,1,]), mean ( erg1 [3,1,]) ) conf2 = erg2 [,2,] < c (3,1,2) & erg2 [,3,] > c (3,1,2) 81 rowmeans ( conf2 ) 82 c( mean ( erg2 [1,1,]), mean ( erg2 [2,1,]), mean ( erg2 [3,1,]) ) 83 par ( mfrow =c (3,2) ) 84 qqnorm ( erg1 [1,1,], main = expression ("ML - Schätzung für " * theta [1] * " QQ - Plot "), 85 xlab =, ylab = ) 86 qqnorm ( erg2 [1,1,], main = expression ("KQ - Schätzung für " * theta [1] * " QQ - Plot "), 87 xlab =, ylab = ) 88 qqnorm ( erg1 [2,1,], main = expression ("ML - Schätzung für " * theta [2] * " QQ - Plot "), 89 xlab =, ylab = ) 90 qqnorm ( erg2 [2,1,], main = expression ("KQ - Schätzung für " * theta [2] * " QQ - Plot "), 20
22 91 xlab =, ylab = ) 92 qqnorm ( erg1 [3,1,], main = expression ("ML - Schätzung für " * theta [3] * " QQ - Plot "), 93 xlab =, ylab = ) 94 qqnorm ( erg2 [3,1,], main = expression ("KQ - Schätzung für " * theta [3] * " QQ - Plot "), 95 xlab =, ylab = ) ## ML - Simulation 2 98 set. seed (456) X = sde. sim ( model ="OU", theta = c (3,1,2),N = 1000, delta = 1e -3) 101 fit = mle (OU.lik, start = list ( theta1 =1, theta2 =0.5, theta3 =1), 102 method = BFGS ) 103 summary ( fit ) 104 confint ( fit ) ## ML - Simulation 2: Alternative Schätzung 107 set. seed (456) fit = mle (OU.lik, start = list ( theta1 =2, theta2 =2, theta3 =1.5), 110 method = BFGS ) 111 summary ( fit ) 112 confint ( fit ) ## KQ - Simulation delta =1e model = lm(x[ -1]~X [1:(( length (X) -1))]) 118 coefi = model $ coefficients 119 res = model $ residuals 120 theta2 = unname ( log ( coefi [2]) /-delta ) 121 theta1 = unname ( coefi [1] * theta2 /(1 - exp (- theta2 * delta ))) 122 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) 123 conftheta2 = log ( confint ( model ) [2,]) /-delta 124 conftheta1 =( confint ( model )[1,]* conftheta2 /(1 - exp (- conftheta2 * delta ))) 125 conftheta3 =sd(res )* sqrt (2* conftheta2 /(1 - exp ( -2* conftheta2 * delta ))) ## Mit 1000 Iterationen 128 set. seed (456) 129 erg3 = array ( dim = c (3,1000) ) 130 erg4 = array ( dim = c (3,1000) ) 131 for ( i in 1:1000) { 132 X = sde. sim ( model ="OU", theta = c (3,1,2),N = 1000, delta = 1e -3) 133 fit = mle (OU.lik, start = list ( theta1 =2, theta2 =2, theta3 =1.5), 134 method = BFGS ) 135 est = coef ( fit ) 136 erg3 [,i] = est model = lm(x[ -1]~X [1:(( length (X) -1))]) 139 coefi = model $ coefficients 140 res = model $ residuals 141 theta2 = unname ( log ( coefi [2]) /-delta ) 142 theta1 = unname ( coefi [1] * theta2 /(1 - exp (- theta2 * delta ))) 143 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) 144 est = c( theta1, theta2, theta3 ) 145 erg4 [,i] = est 146 } 147 c( mean ( erg3 [1,]), mean ( erg3 [2,]), mean ( erg3 [3,]) ) c( mean ( erg4 [1,]), mean ( erg4 [2,]), mean ( erg4 [3,]) ) 150 par ( mfrow =c (3,2) ) 151 qqnorm ( erg3 [1,], main = expression ("ML - Schätzung für " * theta [1] * " QQ - Plot "), 152 xlab =, ylab = ) 21
23 153 qqnorm ( erg4 [1,], main = expression ("KQ - Schätzung für " * theta [1] * " QQ - Plot "), 154 xlab =, ylab = ) 155 qqnorm ( erg3 [2,], main = expression ("ML - Schätzung für " * theta [2] * " QQ - Plot "), 156 xlab =, ylab = ) 157 qqnorm ( erg4 [2,], main = expression ("KQ - Schätzung für " * theta [2] * " QQ - Plot "), 158 xlab =, ylab = ) 159 qqnorm ( erg3 [3,], main = expression ("ML - Schätzung für " * theta [3] * " QQ - Plot "), 160 xlab =, ylab = ) 161 qqnorm ( erg4 [3,], main = expression ("KQ - Schätzung für " * theta [3] * " QQ - Plot "), 162 xlab =, ylab = ) ## Simulation ML set. seed (789) 166 X = sde. sim ( model ="OU", theta = c (0,3,2),N = 1000, delta = 1) 167 fit = mle (OU.lik, start = list ( theta2 =1.5, theta3 =1), fixed = list ( theta1 =0), 168 method = L-BFGS -B,lower = c (0,0) ) 169 summary ( fit ) ## Simulation KQ delta =1 173 model = lm(x[ -1]~X [1:(( length (X) -1))] -1) 174 coefi = model $ coefficients 175 res = model $ residuals 176 theta2 = unname ( log ( coefi [1]) /-delta ) 177 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) ## Simulation exakt 180 theta2 = -log ( sum (X [1:( length (X) -1)]*X [2: length (X)])/sum (X [1:( length (X) -1) ]^2) )/ 181 delta 182 theta3sq = 2* theta2 /(( length (X) -1)*(1 - exp ( -2* delta * theta2 )))* 183 sum ((X[2: length (X)]-X [1:( length (X) -1)]* exp (- delta * theta2 )) ^2) 184 c( theta2, sqrt ( theta3sq )) # Mit 1000 Iterationen : 187 set. seed (789) 188 erg5 = array ( dim = c (6,1000) ) 189 for ( i in 1:1000) { 190 X = sde. sim ( model ="OU", theta = c (0,3,2),N = 1000, delta = 1) 191 fit = mle (OU.lik, start = list ( theta2 =1.5, theta3 =1), fixed = list ( theta1 =0), 192 method = L-BFGS -B,lower = c (0,0) ) 193 est = coef ( fit ) [2:3] 194 erg5 [1:2, i] = est model = lm(x[ -1]~X [1:(( length (X) -1))] -1) 197 coefi = model $ coefficients 198 res = model $ residuals 199 theta2 = unname ( log ( coefi [1]) /-delta ) 200 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) 201 erg5 [3:4, i]=c( theta2, theta3 ) theta2 = -log ( sum (X [1:( length (X) -1)]*X [2: length (X)])/sum (X [1:( length (X) -1) ]^2) )/ 204 delta 205 theta3sq = 2* theta2 /(( length (X) -1)*(1 - exp ( -2* delta * theta2 )))* 206 sum ((X[2: length (X)]-X [1:( length (X) -1)]* exp (- delta * theta2 )) ^2) 207 erg5 [5:6, i]=c( theta2, sqrt ( theta3sq )) 208 } 209 rowmeans ( erg5, na. rm = T) ## Simulation ML set. seed (123) 214 X = sde. sim ( model ="OU", theta = c (1, -0.01,1),N = 100, delta = 1/ 10) 22
24 215 fit = mle (OU.lik, start = list ( theta1 =0.5, theta2 =-1, theta3 =0.5), 216 method = L-BFGS -B,lower = c(-inf,-inf,0), control = list ( maxit = 1000) ) 217 summary ( fit ) 218 vcov ( fit ) 219 confint ( fit ) ## KQ - Simulation delta =1/ model = lm(x[ -1]~X [1:(( length (X) -1))]) 224 coefi = model $ coefficients 225 res = model $ residuals 226 theta2 = unname ( log ( coefi [2]) /-delta ) 227 theta1 = unname ( coefi [1] * theta2 /(1 - exp (- theta2 * delta ))) 228 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) 229 conftheta2 = log ( confint ( model ) [2,]) /-delta 230 conftheta1 =( confint ( model )[1,]* conftheta2 /(1 - exp (- conftheta2 * delta ))) 231 conftheta3 =sd(res )* sqrt (2* conftheta2 /(1 - exp ( -2* conftheta2 * delta ))) ## 1000 Iterationen 234 set. seed (123) 235 erg6 = array ( dim = c (3,3,1000) ) 236 erg7 = array ( dim = c (3,3,1000) ) 237 for ( i in 1:1000) { 238 X = sde. sim ( model ="OU", theta = c (1, -0.01,1),N = 100, delta = 1/ 10) 239 fit = mle (OU.lik, start = list ( theta1 =0.5, theta2 =-1, theta3 =0.5), 240 method = L- BFGS - B ) est = coef ( fit ) 243 int = confint ( fit ) 244 erg6 [,,i] = cbind (est, int ) model = lm(x[ -1]~X [1:(( length (X) -1))]) 247 coefi = model $ coefficients 248 res = model $ residuals 249 theta2 = unname ( log ( coefi [2]) /-delta ) 250 theta1 = unname ( coefi [1] * theta2 /(1 - exp (- theta2 * delta ))) 251 theta3 = unname (sd(res )* sqrt (2* theta2 /(1 - exp ( -2* theta2 * delta )))) 252 conftheta2 = log ( confint ( model ) [2,]) /-delta 253 conftheta1 =( confint ( model )[1,]* conftheta2 /(1 - exp (- conftheta2 * delta ))) 254 conftheta3 =sd(res )* sqrt (2* conftheta2 /(1 - exp ( -2* conftheta2 * delta ))) 255 if( conftheta1 [2] < conftheta1 [1]) { 256 temp = conftheta1 [1] 257 conftheta1 [1]= conftheta1 [2] 258 conftheta1 [2]= temp 259 } 260 if( conftheta2 [2] < conftheta2 [1]) { 261 temp = conftheta2 [1] 262 conftheta2 [1]= conftheta2 [2] 263 conftheta2 [2]= temp 264 } 265 if( conftheta3 [2] < conftheta3 [1]) { 266 temp = conftheta3 [1] 267 conftheta3 [1]= conftheta3 [2] 268 conftheta3 [2]= temp 269 } 270 est = c( theta1, theta2, theta3 ) 271 int = rbind ( conftheta1, conftheta2, conftheta3 ) 272 erg7 [,,i] = cbind (est, int ) 273 } 274 conf6 = erg6 [,2,] < c (1, -0.01,1) & erg6 [,3,] > c (1, -0.01,1) 275 rowmeans ( conf6 ) 276 c( mean ( erg6 [1,1,]), mean ( erg6 [2,1,]), mean ( erg6 [3,1,]) ) 23
25 conf7 = erg7 [,2,] < c (1, -0.01,1) & erg7 [,3,] > c (1, -0.01,1) 279 rowmeans ( conf7 ) 280 c( mean ( erg7 [1,1,]), mean ( erg7 [2,1,]), mean ( erg7 [3,1,]) ) 281 par ( mfrow =c (3,2) ) 282 qqnorm ( erg6 [1,1,], main = expression ("ML - Schätzung für " * theta [1] * " QQ - Plot "), 283 xlab =, ylab = ) 284 qqnorm ( erg7 [1,1,], main = expression ("KQ - Schätzung für " * theta [1] * " QQ - Plot "), 285 xlab =, ylab = ) 286 qqnorm ( erg6 [2,1,], main = expression ("ML - Schätzung für " * theta [2] * " QQ - Plot "), 287 xlab =, ylab = ) 288 qqnorm ( erg7 [2,1,], main = expression ("KQ - Schätzung für " * theta [2] * " QQ - Plot "), 289 xlab =, ylab = ) 290 qqnorm ( erg6 [3,1,], main = expression ("ML - Schätzung für " * theta [3] * " QQ - Plot "), 291 xlab =, ylab = ) 292 qqnorm ( erg7 [3,1,], main = expression ("KQ - Schätzung für " * theta [3] * " QQ - Plot "), 293 xlab =, ylab = ) Listing 1: R-Code 24
Einige parametrische Familien für stochastische Prozesse
Einige parametrische Familien für stochastische Prozesse Seminar: Grundlagen der und Statistik von dynamischen Systemen 26. November 2014 Inhaltsverzeichnis 1 Einleitung 2 3 4 5 Einleitung Ziel des Vortrages:
MehrAusarbeitung zum Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen (SS 2012)
Ausarbeitung zum Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen (SS 2012) Maximum-Likelihood-Schätzung für den Ornstein-Uhlenbeck-Prozess Daniel Horn 15. Juni 2012 Dozentin:
MehrSeminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund
Seminarvortrag Euler-Approximation Marian Verkely TU Dortmund 03.12.14 1 / 33 Inhaltsverzeichnis 1 Motivation 2 Simulierte Prozesse 3 Euler-Approximation 4 Vasicek-Prozess: Vergleich analytische Lösung
MehrPseude-Likelihood-Methode
Pseude-Likelihood-Methode Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen Andrei Durtca Technische Universität Dortmund 12. Januar 2015 Inhaltsverzeichnis 1 Einleitung 2 Pseude-Likelihood-Methode
MehrEuler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012
Euler-Approximation Leonie van de Sandt TU Dortmund Prof. Dr. Christine Müller 5. Juni 2012 Leonie van de Sandt (TU Dortmund) Euler-Approximation 5. Juni 2012 1 / 26 Inhaltsverzeichnis 1 Einleitung Leonie
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrStochastik Praktikum Parametrische Schätztheorie
Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrGeneralisierte Momentenmethode
Im Rahmen des Seminars Grundlagen der Simulation und Statistik von dynamischen Systemen Generalisierte Momentenmethode Sebastian Szugat 26. Juni 2012 Prof. Dr. Christine Müller Inhaltsverzeichnis Inhaltsverzeichnis
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
MehrFortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrGoethe-Universität Frankfurt
Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre
Mehrx t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
Mehr3.2 Maximum-Likelihood-Schätzung
291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde
MehrEinige parametrische Familien für stochastische Prozesse
Technische Universität Dortmund Fakultät Statistik Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen Einige parametrische Familien für stochastische Prozesse Ausarbeitung Dozentin:
MehrAufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
Mehr4 Statistik der Extremwertverteilungen
In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
MehrSeminar-Bericht. Euler-Approximation. Grundlagen der Simulation und Statistik von dynamischen Systemen Autor: Marian Verkely.
Seminar-Bericht Euler-Approximation Grundlagen der Simulation und Statistik von dynamischen Systemen 19.11.2014 Autor: Marian Verkely Dozent: Prof. Dr. Christine Müller Inhaltsverzeichnis 1 Einleitung
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrDie Stochastischen Eigenschaften von OLS
Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung
MehrMaximum-Likelihood-Schätzung für das Black-Scholes-Mertonund das Cox-Ingersoll-Ross-Modell
Maximum-Likelihood-Schätzung für das Black-Scholes-Mertonund das Cox-Ingersoll-Ross-Modell Vortrag im Seminar Grundlagen der Simulation und Statistik von dynamischen Systemen Philipp Aschersleben Fakultät
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrStatistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................
MehrGeometrische Brownsche Bewegung und Brownsche Brücke
Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen SoSe 2012 Geometrische Brownsche Bewegung und Brownsche Brücke Korinna Griesing 10. April 2012 Dozentin: Prof. Dr. Christine Müller
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood KARLSRUHER INSTITUT FÜR TECHNOLOGIE (KIT) 0 KIT 06.01.2012 Universität des Fabian Landes Hoffmann Baden-Württemberg und nationales Forschungszentrum
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrDie Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare
17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale
Mehr1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
Mehry = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0
8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)
Mehr10 Statistisches Schätzen
10 Statistisches Schätzen 620 10 Statistisches Schätzen 10.1 Punktschätzung 623 10.1.1 Schätzer und ihre Gütekriterien 623 10.1.2 Erwartungstreue 627 10.1.3 Erwartete quadratische Abweichung (MSE) 634
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrNachklausur Mathematik für Biologen WS 08/09
Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
Mehry t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrAuswahl von Schätzfunktionen
Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrMaximum-Likelihood-Schätzung für das Black-Scholes-Merton-Modell und das Cox-Ingersoll-Ross-Modell
Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen SS 2012 Maximum-Likelihood-Schätzung für das Black-Scholes-Merton-Modell und das Cox-Ingersoll-Ross-Modell Thema 10 Philipp Probst
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
MehrName: SS Universität Kassel Prof. Dr. Hadrian Heil
SS 2015 Name: Universität Kassel Prof. Dr. Hadrian Heil Mathematik IV für Ingenieure (Stochastik) Klausur, 25.9.2015. Bearbeitungszeit 2 Stunden Ergebnis (nicht ausfüllen): K1 K2 K3 K4 K5 K6 K7 Note Tragen
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrProxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
Mehr1 Verteilungsfunktionen, Zufallsvariable etc.
4. Test M3 ET 27 6.6.27 4. Dezember 27 Regelung für den.ten Übungstest:. Wer bei den Professoren Dirschmid, Blümlinger, Vogl oder Langer die UE aus Mathematik 2 gemacht hat, sollte dort die WTH und Statistik
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrStochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie
Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik
MehrBootstrap: Punktschätzung
Resampling Methoden Dortmund, 2005 (Jenő Reiczigel) 1 Bootstrap: Punktschätzung 1. Die Grundidee 2. Plug-in Schätzer 3. Schätzung des Standardfehlers 4. Schätzung und Korrektur der Verzerrung 5. Konsistenz
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrGrundlegende Eigenschaften von Punktschätzern
Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
MehrOrnstein-Uhlenbeck-Prozesse
Ornstein-Uhlenbeck-Prozesse M. Gruber 3. 4 214 Zusammenfassung Der Ornstein-Uhlenbeck-Prozess (oft abgekürzt OU-Prozess) ist ein spezieller stochastischer Prozess, der nach den beiden niederländischen
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrTeekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).
Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den
MehrStochastik Praktikum Simulation stochastischer Prozesse
Stochastik Praktikum Simulation stochastischer Humboldt-Universität zu Berlin 15.10.2010 Übersicht 1 Brownsche Bewegung und Diffusionsprozesse 2 Brownsche Brücke 3 Ornstein Uhlenbeck 4 Zusammengesetzte
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrÜbungsblatt 4. Autokovarianz, Autokorrelation Invertierbarkeit und Kausalität
Empirische Methoden (MA) SS 2011 Übungsblatt 4 Willi Mutschler willi.mutschler@uni-muenster.de Autokovarianz, Autokorrelation Invertierbarkeit und Kausalität 1. Sei Z t W N(0, σ 2 ). Bestimmen Sie den
MehrStochastik-Praktikum
Stochastik-Praktikum Zufallszahlen und Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 17. Oktober 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 17. Oktober 2017 1 / 23
MehrWahrscheinlichkeitsrechnung und schließende Statistik
Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
MehrSimultane Mehrgleichungssysteme: Parameterschätzung
Simultane Mehrgleichungssysteme: Parameterschätzung Stichwörter: Eigenschaften des OLS-Schätzers Hilfsvariablenschätzer 2SLS limited information Methoden 3SLS FIML full information Methoden o1-21.tex/0
MehrSeminar Stochastische Unternehmensmodelle Varianzreduzierende Techniken
Seminar Stochastische Unternehmensmodelle Varianzreduzierende Techniken 25. Juni 2015 1 / 37 Übersicht 1. Ziel des Vortrags 2. Einleitung 3. Varianzreduzierende Techniken Bedingtes Monte Carlo Importance
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
Mehr