Generalisierte Momentenmethode

Ähnliche Dokumente
Einige parametrische Familien für stochastische Prozesse

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Euler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012

Statistik und Wahrscheinlichkeitsrechnung

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

6. Schätzverfahren für Parameter

Statistik I für Betriebswirte Vorlesung 14

Grundlegende Eigenschaften von Punktschätzern

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Wichtige Definitionen und Aussagen

Einführung in die Maximum Likelihood Methodik

Wahrscheinlichkeitsverteilungen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Seminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Mathematische Statistik Aufgaben zum Üben. Schätzer

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Kapitel XIV - Anpassungstests

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Einfaktorielle Varianzanalyse

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

4. Verteilungen von Funktionen von Zufallsvariablen

Lösung Übungsblatt 5

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Mathematik für Biologen

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Willkommen zur Vorlesung Statistik (Master)

Das Bayes'sche Prinzip

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

1.3 Wiederholung der Konvergenzkonzepte

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

3 Grundlagen statistischer Tests (Kap. 8 IS)

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Statistik Einführung // Stichprobenverteilung 6 p.2/26

Biostatistik, Sommer 2017

5. Stichproben und Statistiken

Statistik I. 1. Klausur Wintersemester 2010/2011 Hamburg, Art der Anmeldung: STiNE FlexNow Zulassung unter Vorbehalt

Klausur zu Statistik II

Statistisches Testen

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Mathematik 2 Probeprüfung 1

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

1 Gemischte Lineare Modelle

Die Familie der χ 2 (n)-verteilungen

Zufallsvariablen [random variable]

Auswahl von Schätzfunktionen

Stichproben Parameterschätzung Konfidenzintervalle:

7.5 Erwartungswert, Varianz

1.0 Einleitung. 1 Schätzen von Parametern

70 Wichtige kontinuierliche Verteilungen

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Kapitel XI - Operationscharakteristik und Gütefunktion

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Klausur zu Methoden der Statistik II (mit Kurzlösung) Wintersemester 2011/12. Aufgabe 1

Einführung in die (induktive) Statistik

Ökonometrie. Hans Schneeweiß. 3., durchgesehene Auflage. Physica-Verlag Würzburg-Wien 1978 ISBN

Schriftliche Prüfung (2 Stunden)

Wahrscheinlichkeit und Statistik: Zusammenfassung

Reelle Zufallsvariablen

Klausur Stochastik und Statistik 31. Juli 2012

Wahrscheinlichkeitstheorie und Statistik vom

Statistik für Experimente

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Chi-Quadrat-Verteilung

Klassifikation von Daten Einleitung

Institut für Stochastik, SoSe K L A U S U R , 13:

Vorlesung: Statistik II für Wirtschaftswissenschaft

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Kapitel 3 Schließende Statistik

Schließende Statistik

Statistische Analyse hydrologischer Daten (HW Berechnung)

4 Statistik der Extremwertverteilungen

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Einführung und Grundlagen

Bootstrap: Punktschätzung

Die partielle Likelihood-Funktion

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

1 Dichte- und Verteilungsfunktion

Stochastische Prozesse

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Übungsscheinklausur,

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Statistische Tests (Signifikanztests)

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Unabhängige Zufallsvariablen

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Vorlesung: Lineare Modelle

Statistik II für Betriebswirte Vorlesung 1

Exponentialverteilung

Einführung in die statistische Testtheorie

Simultane Mehrgleichungssysteme: Parameterschätzung

Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: n (2k 1) = n 2.

Transkript:

Im Rahmen des Seminars Grundlagen der Simulation und Statistik von dynamischen Systemen Generalisierte Momentenmethode Sebastian Szugat 26. Juni 2012 Prof. Dr. Christine Müller

Inhaltsverzeichnis Inhaltsverzeichnis 1 Einleitung 3 2 Statistische Methoden 3 2.1 Momentenmethode................................. 4 2.2 Generalisierte Momentenmethode......................... 4 2.3 GMM-Algorithmus................................. 6 2.4 Eigenschaften des GMM Schätzers......................... 7 2.5 GMM und stochastische Differentialgleichungen................. 8 3 Simulationen 10 3.1 Parameterschätzung beim Cox-Ingersoll-Ross-Modell.............. 10 3.2 Parameterschätzung beim Vasicek-Modell..................... 15 3.3 Konsistenz des GMM-Schätzers.......................... 16 4 Zusammenfassung 17 Literatur 18 2

1 Einleitung 1 Einleitung Stochastische Differentialgleichungen können verwendet werden um dynamische Systeme zu beschreiben. Diese werden von stochastischen Prozessen gelöst. In der Ökonometrie werden sie oft für die Modellierung von Zinsraten oder Aktienkursen gebraucht. Die zugrundeliegenden Modelle enthalten oft Parameter. Deshalb ist es in der Praxis ein häufiges Ziel diese Parameter zu schätzen. Dazu werden zu diskreten Zeitpunkten Realisierungen eines stochastischen Prozesses beobachtet. An diese Daten soll dann ein Modell angepasst werden und die zugehörigen Parameter müssen geschätzt werden. In dieser Seminarausarbeitung geht es um die generalisierte Momentenmethode. Die Ausarbeitung orientiert sich dabei am entsprechenden Kapitel in Iacus (2008). Das Prinzip dieser Methode ist vereinfacht so zu beschreiben, dass die Parameter so gewählt werden, dass die theoretischen und die empirischen Momente möglichst gut übereinstimmen. Dabei können die Momente außerdem in weiteren Bedingungen auftauchen, sodass die Verwendung der aus der klassischen Schätztheorie bekannten Momentenmethode nicht nötig ist. Das Ziel dieser Arbeit ist die Funktionsweise dieser Methode am Beispiel von stochastischen Differentialgleichungen zu erläutern und zu untersuchen. In Kapitel 2 wird der grundsätzliche theoretische Aufbau der Methode beschrieben. Dafür wird zunächst in Kapitel 2.1 auf die gewöhnliche Momentenmethode eingegangen. Anschließend wird diese in Kapitel 2.2 verallgemeinert und die generalisierte Momentenmethode beschrieben. Eine algorithmische Umsetzung des Verfahrens wird in Abschnitt 2.3 gegeben. Auf einige theoretische Eigenschaften wird im darauf folgenden Kapitel 2.4 eingegangen. In Kapitel 2.5 wird gezeigt wie das Verfahren für die Parameterschätzung bei stochastischen Differentialgleichungen verwendet werden kann. In Abschnitt 3 folgt die Anwendung des Verfahrens auf zwei in der Ökonometrie häufig verwendete Modelle. Dies ist zum einen das Cox-Ingersoll-Ross-Model und zum anderen das Vasicek-Modell. Die Schätzungen werden mit der üblichen Maximum-Likelihood-Schätzung verglichen. Außerdem wird der Einfluss der betrachteten Stichprobengröße auf die Qualität der Schätzung untersucht. Eine abschließende Zusammenfassung und Diskussion der erzielten Ergebnisse wird dann in Kapitel 4 gegeben. 2 Statistische Methoden Bei der generalisierten Momentenmethode (GMM) handelt es sich um ein Verfahren zur Parameterschätzung, das von Hansen (1982) vorgeschlagen wurde. Es ist eine Verallgemeinerung der aus der klassischen Schätztheorie bekannten Momentenmethode. Diese basiert auf dem 3

2 Statistische Methoden Gleichsetzen von theoretischen und empirischen Momenten einer Zufallsvariablen X. Deshalb wird nun zunächst diese Methode nach Genschel und Becker (2005) kurz eingeführt und dann auf die Verallgemeinerung, wie Iacus (2008) sie beschreibt, eingegangen. 2.1 Momentenmethode Gegeben sei eine Zufallsvariable X mit zugehöriger Verteilungsfunktion F X (x; θ), wobei θ = (θ 1,..., θ k ) mit θ i R(i = 1,..., k) den Parametervektor der Verteilung bezeichnet. Außerdem seien X 1,..., X n unabhängig und identisch wie X verteilte Stichprobenvariablen. Das r-te (theoretische) Moment von X ist definiert als µ (r) = E(X r ) = x r f X (x; θ)dx, wobei f X (x; θ) die Dichtefunktion von X bezeichne. Das r-te empirische Moment berechnet sich als m (r) = 1 n n Xi r. Für den Parametervektor θ können dann die Lösungen ω 1,..., ω k des k-elementigen Gleichungssystems i=1 µ (1) = m (1) µ (2) = m (2). µ (k) = m (k) als Schätzfunktionen bestimmt werden. Die Lösungen ω 1,..., ω k werden als Momentenschätzer für θ 1,..., θ k bezeichnet (Genschel und Becker, 2005, S.108). 2.2 Generalisierte Momentenmethode In komplexeren Modellen können oft mehrere Momentenbedingungen formuliert werden. Momentenbedingungen werden Gleichungen genannt, die die Momente des Modells beinhalten. Diese sollen dann gleichzeitig gelten und können nicht notwendigerweise durch Einsetzen der empirischen Momente gelöst werden. Deshalb muss das entstehende Gleichungssystem mithilfe 4

2 Statistische Methoden numerischer Optimierungsverfahren möglichst gut gelöst werden. Diese Idee wird nun im Folgenden formalisiert. Sei (X n ) n 1 ein stochastischer Prozess und X i (i = 1,..., n) eine Stichprobe aus diesem Prozess. Außerdem sei u i : R n R k R s, wobei u i = u(x i ; θ) mit s k, so dass E(u i ) = µ i mit µ R s. Außerdem gelte Cov(u i, u i+j ) = E ((u i µ)(u i+j µ) ) = S j i, j, mit S j R s s. Die zentrale Annahme der generalisierten Momentenmethode ist, dass die Momentenbedingung E(u(X i ; θ)) = 0 (1) nur gilt, wenn θ = θ 0. Falls ein Diffusionsprozess vorliegt, der nur zu diskreten Zeitpunkten beobachtet werden kann, müssen die Momentenbedingungen durch bedingte Momentenbedingungen E(u(X i ; θ 0 ) F i ) = 0 i. Gegeben einen Wahrscheinlichkeitsraum (Ω, A, P ) ist eine Filtration (F t ) t 0 eine wachsende Familie von Unter-σ-Algebren von A. Dann bezeichnet F i F, die durch den stochastischen Prozess bis zum Zeitpunkt i erzeugte σ-algebra. Es handelt sich um die kleinste σ-algebra, die es ermöglicht allen Ereignissen bis zum Zeitpunkt i eine Wahrscheinlichkeit zuweisen zu können (vgl. Iacus, 2008, S.14f). Das Stichprobengegenstück zu Bedingung (1) ist g n (θ) = 1 n n u(x i ; θ). i=1 Es wird dann erwartet, dass E (g n (θ 0 )) = 0. Außerdem wird angenommen, dass das starke Gesetz der großen Zahlen gilt, das heißt g n (θ) f.s. E(u(X i ; θ)). Damit diese Annahmen gültig sind, müssen die Momente und die Struktur der Funktion 5

2 Statistische Methoden u bekannt sein. Die Funktion u ist üblicherweise die Differenz zwischen dem exakten r-ten Moment und Xi r für einige Exponenten r. Sie muss für jedes Modell bekannt sein (Iacus, 2008, S.183). In dieser Arbeit wird die generalisierte Momenentenmethode zur Schätzung der Parameter von stochastischen Differentialgleichungen verwendet. Auf die Konstruktion von u und die zugehörigen Momenente wird in Abschnitt 2.5 eingegangen werden. Von Interesse ist nun die Schätzung des Parametervektors θ. Falls s = k gilt, gibt es eine eindeutige Lösung ˆθ. Im Allgemeinen gilt jedoch s > k, sodass das zugehörige Gleichungssystem überbestimmt ist. Das Optimierungsproblem wird dann transformiert zu ˆθ = argmin θ Q(θ) = argmin θ g n (θ) W g n (θ). Dabei bezeichnet W eine positiv definite Gewichtmatrix, die oft als S 1 gewählt wird, wobei S = E(uu ) die long-run Kovarianzmatrix bezeichnet. Der Grund für diese Wahl ist, dass sie für die kleinste asympotische Kovarianzmatrix des GMM-Schätzers sorgt (Iacus, 2008, S.183). Die Matrix S kann aus den Daten geschätzt werden mit Ŝ = S 0 + l w j (Ŝj + Ŝ j) (2) j=1 wobei Ŝ j = 1 n u i i n i j, j = 0, 1,..., l. i=j+1 Dabei bezeichnet l den maximalen Lag, der a priori gewählt wird und w j sind Gewichte die sicherstellen, dass Ŝ eine positiv definite Matrix ist. Eine mögliche Wahl für w j sind die Bartletgewichte w j = 1 j l + 1. 2.3 GMM-Algorithmus Für die Durchführung der GMM-Schätzung schlägt Hansen (1982) ein zweischrittiges Verfahren vor. Schritt 1: Es wird W = I gesetzt, wobei I die Einheitsmatrix bezeichnet, und das nichtlineare 6

2 Statistische Methoden kleinste Quadrate Problem gelöst. ˆθ (1) = argmin θ g n (θ) g n (θ) Schritt 2: Im zweiten Schritt wird û i = u(x i ; ˆθ (1) ) berechnet und der Schätzer Ŝ für S wie in (2) bestimmt. Damit kann W = Ŝ 1 bestimmt werden und der Schätzer ˆθ (2) durch Lösen des Optimierungsproblems ˆθ (2) = argmin θ g n (θ) W g n (θ) bestimmt werden. Dieser Schritt kann nun so lange wiederholt werden, bis im (k + 1)-ten Schritt ˆθ (k+1) ˆθ (k) 2 < ɛ gilt für kleines ɛ > 0. Die Schätzung kann dann in weiteren Iterationen kaum noch verbessert werden. Dieser Algorithmus ist in der Funktion gmm im Paket sde von Iacus (2009) implementiert worden. Für die Lösung des Optimierungsproblem wird eine BFGS-Methode von Fletcher (1987) verwendet. Dabei werden für die zu optimierenden Parameter jeweils obere und untere Schranken angegeben. Außerdem erwartet das Optimierungsverfahren eine Startlösung für die Parameter. Sofern keine angegeben wird, wird diese zufällig bestimmt. Der maximal Lag wird als l = n 2 gewählt. Diese Wahl von l wird begründet von Newey und West (1994). 2.4 Eigenschaften des GMM Schätzers Hansen (1982) zeigt einige Eigenschaften des GMM-Schätzers. Unter gewissen Annahmen kann die Konsistenz des GMM Schätzers nachgewiesen werden. Diese lauten: (X n ) n 1 ist stationär und ergodisch, (3) Der Parameterraum S ist ein separabler metrischer Raum, (4) 7

2 Statistische Methoden u( ; θ) ist Borel-messbar θ S und u(x; ) ist stetig auf S x R n, (5) E(u(x 1, θ)) existiert und ist endlich θ S, (6) E(u(x 1, θ 0 )) = 0 (7) und Die Folge der Gewichtsmatrizen im Algorithmus W f.s. W 0 konstant. (8) Wenn diese Annahmen gelten, kann ein Theorem formuliert werden, dass ein GMM Schätzer existiert und fast sicher gegen θ 0 konvergiert (Hansen, 1982, S.1035). Außerdem sind die GMM Schätzer asympotisch normalverteilt mit asympotischer Varianz V = (DS 1 D) 1, wobei D den Gradienten von g n ausgewertet in θ 0 bezeichnet. Diese kann dann durch Einsetzen der Stichprobengegenstücke für D und S ausgewertet an der Stelle ˆθ geschätzt werden. Des Weiteren ist es möglich einen χ 2 -Test zur Verifizierung des durch die Funktion u bestimmten Modells zu konstruieren. Dabei lautet die Nullhypothese H 0 : E(u i (θ)) = 0 und die verwendete Teststatistik ist J = g n (ˆθ) W g n (ˆθ) χ 2 s k. 2.5 GMM und stochastische Differentialgleichungen Die generalisierte Momentenmethode kann für die Schätzung der Parameter des CKLS-Modells verwendet werden. Ein CKLS-Prozess löst die stochastische Differentialgleichung dx t = (θ 1 + θ 2 X t )dt + θ 3 X θ 4 t dw t (vgl. Iacus, 2008, S.49). Ein üblicher Ansatz ist die Diskretisierung X i+1 X i = (θ 1 + θ 2 X i ) + ɛ i+1 i = 0,..., n 1 der stochastischen Differentialgleichung zu betrachten. Der dabei entstehende Fehler wird mit ɛ i+1 bezeichnet und ist die verwendete Schrittweite. Für dieses diskretisierte Modell sollen 8

2 Statistische Methoden die Annahmen E(ɛ i+1 F i ) = 0, E(ɛ 2 i+1 F i ) = θ 2 3X 2θ 4 i, E(ɛ i ɛ j F i ) = 0 i, j = 0,..., n 1, i j gelten. Daraus folgt unmittelbar durch Einsetzen, dass E(X i+1 F i ) = X i + (θ 1 + θ 2 X i ) und X i+1 E(X i+1 F i ) = ɛ i+1. Damit kann die Funktion u konstruiert werden als X i+1 E(X i+1 F i ) u i (θ) = X i (X i+1 E(X i+1 F i )) Var(X i+1 F i ) (X i+1 E(X i+1 F i )) 2. (9) X i (Var(X i+1 F i ) (X i+1 E(X i+1 F i )) 2 ) Es muss sichergestellt werden, dass E(u i (θ 0 )) = 0 gilt. Für die erste und dritte Zeile von u ist das klar. Deshalb soll nun exemplarisch nachgeprüft werden, dass E(X i (X i+1 E(X i+1 F i ))) = 0 gilt. E(X i (X i+1 E(X i+1 F i ))) = E(X i X i+1 X i E(X i+1 F i )) = E(X i X i+1 ) E(X i E(X i+1 F i )) = E(X i X i+1 ) E(E(X i X i+1 F i )) = E(X i X i+1 ) E(X i X i+1 ) = 0. Für die vierte Zeile von u ist der Nachweis komplexer, weswegen an dieser Stelle darauf verzichtet wird. Außerdem ist zu beachten, dass die bedingten Momente des diskretisierten Modells nicht mehr denen des zeitstetigen Modells entsprechen. Die Verwendung dieser Momente kann also zu inkonsistenten Schätzungen führen. Bezeichnen θ1, d..., θ4 d die Parameter des diskretisierten Models gelten nach Iacus (2008, S.186) die Zusammenhänge und θ d 1 = θ 1 θ 2 (exp(θ 2 ) 1) θ2 d = exp(θ 2 ) 1. Für θ d 3 und θ d 4 gelten ähnliche Resultate. Der GMM Schätzer ist deshalb ein konsistenter Schätzer für die Parameter des diskretisierten Modells, aber für 0 stimmen sie mit den 9

3 Simulationen Parametern des stetigen Modells überein. Aus diesem Grund muss dies an dieser Stelle nicht näher betrachtet werden. 3 Simulationen 3.1 Parameterschätzung beim Cox-Ingersoll-Ross-Modell Zunächst soll das Beispiel von Iacus (2008, S.186f.) nachvollzogen werden. Dort wird die GMM- Schätzung mit der exakten Maximum-Likelihood-Schätzung verglichen. Als zugrundeliegendes Modell wird das CKLS-Modell mit θ 4 = 1 verwendet. Es handelt sich somit um das Cox- 2 Ingersoll-Ross-Modell (CIR-Modell), wenn θ 1, θ 2 und θ 3 R +. Dazu wird eine Trajektorie eines CIR Prozesses der Länge 500000 mit = 0.001 und Parametervektor θ = (0.5, 0.2, 0.05) simuliert. Als Startwert dient ein Punkt aus der stationären Verteilung des Prozesses. Dafür wird die Funktion sde.sim aus dem Paket sde verwendet. Anschließend wird der simulierte Prozess mit = 0.1 abgetastet und die zweite Hälfte der Trajektorie behalten, damit die Stationärität gewährleistet ist. Es bleiben dann 2500 Beobachtungen übrig. Die entstehende Trajektorie ist in Abbildung 1 zu sehen. 10

3 Simulationen X 0 1 2 3 4 5 250 300 350 400 450 500 Zeit Abbildung 1: Simulierte Trajektorie des CIR-Prozesses Zunächst wird eine Maximum-Likelihood-Schätzung durchgeführt. Die dafür benötigte Dichte gibt Iacus (2008, S.47f.) an als ( u ) q 2 ( ) p θ (t, y x 0 ) = c exp( (u + v)) I q 2 uv. v Dabei ist c = 2θ 2 θ 2 3(1 exp( θ 2 t)), u = cx 0 exp( 2θ 2 t), v = cy, q = 2θ 1 θ 2 3 1 und I q ( ) bezeichnet die modifizerte Besselfunktion erster Art vom Grad q I q (x) = k=0 x 2k+q 1 2 k!γ(k + q + 1). Die Optimierung der daraus berechenbaren Likelihood wird dann mit einer Variante des BFGS- Algorithmus von Fletcher (1987) durchgeführt. Für den Optimierungsalgorithmus werden 0.001 11

3 Simulationen als untere und 2 als obere Schranke für alle Parameter gewählt. In Tabelle 1 sind die Resultate der Schätzung dargestellt. Die geschätzten Parameter liegen recht nah an den wahren Werten. Die ML-Schätzung ist somit als gut zu bewerten. Für das CIR-Modell sind die bedingten Momente und E(X i+1 X i = y) = θ 1 θ 2 + (y θ 1 θ 2 exp( θ 2 )) Var(X i+1 X i = y) = y θ2 3(exp( θ 2 ) exp( 2θ 2 )) θ 2 + θ 1θ 2 3(1 exp( 2θ 2 )) 2θ 2 2 bekannt. Diese Momente können in die Funktion u (siehe Formel (9) auf Seite 9) eingesetzt werden. Damit kann der GMM-Algorithmus durchgeführt werden. Für die Optimierung werden die selben Schranken wie bei der ML-Schätzung verwendet. Die Ergebnisse dieser Schätzung sind ebenfalls in Tabelle 1 zu sehen. Die Schätzungen für θ 1 und θ 2 unterscheiden sich kaum von denen der ML-Schätzung. Lediglich θ 3 scheint unterschätzt zu werden. Außerdem ist zu bemerken, dass im Programmcode von Iacus (2008) die ML-Schätzung als Startlösung für den Optimierungsalgorithmus im GMM-Algorithmus verwendet wird. Es ist also nicht klar, ob die recht gute Schätzung durch die Wahl der guten Startlösung beeinflusst wurde. Tabelle 1: Parameter des CIR-Prozesses und die durchgeführten Schätzungen θ 1 θ 2 θ 3 wahr 0.50 0.20 0.05 0.22 ML-Schätzung 0.52 0.21 0.23 GMM-Schätzung 0.53 0.21 0.16 Aus diesem Grund wird das Experiment 100 Mal mit zufälligen Startwerten durchgeführt. Dabei wird jedes Mal die in Abbildung 1 gezeigte Trajektorie verwendet. 12

3 Simulationen θ^1 θ^2 θ^3 0.2 0.4 0.6 0.8 0.10 0.15 0.20 0.25 0.30 0.35 0.1625 0.1630 0.1635 Abbildung 2: Boxplots der GMM Schätzungen für die drei Parameter Abbildung 2 zeigt Boxplots für die Schätzungen der drei Parameter bei dem für ˆθ 3 ein Ausreißer, der bei 0 liegt, entfernt wurde. Es ist zu sehen, dass die Werte für ˆθ 1 und ˆθ 2 stark streuen und die wahren Werte häufig überschätzen. Für ˆθ 3 gilt das Gegenteil, dort streuen die Werte nach Entfernen des Ausreißers nur in einem kleinen Bereich und der wahre Wert des Parameters wird unterschätzt. Betrachtet man die Teststatistik J = g n (ˆθ) W g n (ˆθ) aus Kapitel 2.4 so beträgt sie bei jedem der 100 Durchläufe gerundet 0.0005. Der zugehörige p-wert lautet 0.98. Das durch die Momentenbedingungen zugrunde gelegte Modell ist also als plausibel zu bewerten. Für die gewählte Parametereinstellung ist die Wahl einer guten Startlösung also entscheidend, damit die GMM-Schätzung gute Ergebnisse liefert. Aus diesem Grund wird nun noch mit θ = (1, 1, 0.5) eine weitere Parametereinstellung betrachtet und eine GMM- Schätzung mit erneut 100 verschiedenen zufälligen Startwerten durchgeführt. Hier wird im wesentlichen nur die Schätzung ˆθ = (0.99, 0.98, 0.37) berechnet. Es ist zu sehen, dass θ 3 wie 13

Sebastian Szugat 3 Simulationen zuvor unterschätzt wird, während θ 1 und θ 2 gut geschätzt werden. Die Schätzungen streuen bei dieser Parametereinstellung fast gar nicht, wie die Standardabweichungen 3 10 3, 2 10 3 und 4 10 5 zeigen. Für die Maximum-Likelihood-Methode gilt ˆθ ML = (1.00, 0.97, 0.51). Dort wird θ 3 also deutlich besser geschätzt während sich dich Schätzungen für θ 1 und θ 2 kaum vom GMM-Verfahren unterscheiden. Um zu überprüfen, ob die bisher aufgezeigten systematischen Unterschätzungen von θ 3 zufällig sind, werden nun für die Parametereinstellung θ = (1, 1, 0.5) 100 verschiedene Trajektorien betrachtet. In Abbildung 3 sind die daraus resultierenden Boxplots der Schätzer zu sehen. Dies bestätigt die Vermutung, dass der Parameter θ 3 grundsätzlich unterschätzt wird. Die anderen beiden Parameter werden zentral von den jeweiligen Boxplots abgedeckt. θ^1 θ^2 θ^3 0.85 0.90 0.95 1.00 1.05 1.10 1.15 1.20 0.90 0.95 1.00 1.05 1.10 1.15 1.20 0.355 0.360 0.365 0.370 0.375 Abbildung 3: Boxplots der GMM-Schätzer für 100 Trajektorien des CIR-Prozesses mit θ = (1, 1, 0.5) Zusammenfassend lässt sich zum CIR-Modell sagen, dass die GMM-Methode brauchbare 14

3 Simulationen Schätzungen für die Parameter θ 1 und θ 2 liefern kann. Die durchgeführten Simulationen lassen darauf schließen, dass θ 3 immer recht deutlich unterschätzt wird. Außerdem konnte festgestellt werden, dass die Wahl des Startpunkts je nach wahrer Parametereinstellung entscheidend für die Schätzung sein kann. Hier empfiehlt es sich also die Schätzung mehrmals mit mehreren Startwerten durchzuführen und die Streuung der Schätzungen zu untersuchen. Ein durchgeführter χ 2 -Test konnte mit einem p-wert von 0.98 nicht nachweisen, dass die Modellannahme E(u i (θ)) verletzt ist. Ansonsten ist die Maximum-Likelihood-Methode vorzuziehen, da sie bessere Schätzungen liefert. 3.2 Parameterschätzung beim Vasicek-Modell Da im vorigen Abschnitt festgestellt wurde, dass der GMM-Schätzer beim CIR-Modell einen der Parameter grundsätzlich unterschätzt, soll nun untersucht, ob dies bei einem weniger komplexen Modell wie dem Vasicek-Modell ebenfalls der Fall ist. Ein Vasicek-Prozess löst die stochastische Differentialgleichung dx t = (θ 1 θ 2 X t )dt + θ 3 dw t mit θ 1, θ 2 R und θ 3 R +. Für diesen Prozess soll die GMM-Schätzung durchgeführt werden. Die benötigten bedingten Momente gibt Iacus (2008, S.45) an als und E(X i+1 X i = y) = θ 1 θ 2 + (y θ 1 θ 2 ) exp( θ 2 t) Var(X i+1 X i = y) = θ2 3(1 exp( 2θ 2 t)) 2θ 2. Für die Berechnung des GMM-Schätzers wird analog zum Vorgehen beim CIR-Prozess eine Trajektorie des Vasicek-Prozesses mit Parametervektor θ = (3, 1, 2) simuliert. Abbildung 4 zeigt die simulierte Trajektorie des Vasicek-Prozesses, die zur Schätzung verwendet wird. 15

3 Simulationen X 2 0 2 4 6 8 250 300 350 400 450 500 Zeit Abbildung 4: Simulierte Trajektorie des Vasicek-Prozesses Für die Schätzung werden erneut 100 zufällig ausgewählte Startpunkte für den Optimierungsalgorithmus verwendet. Die nötigen Schranken für die Parameter werden im Optimierer auf 0.001 und 10 eingestellt. Es ergibt sich bis auf eine Ausnahme die Schätzung ˆθ = (3.02, 1.08, 1.87). Bei einem Startwert ergab sich eine Schätzung von ˆθ 3 = 10 was durch ein Versagen des Optimieralgorithmus zu erklären ist, da 10 als obere Schranke für den Optimierer verwendet wurde. Insgesamt zeigt sich dasselbe Verhalten des GMM-Schätzers wie beim CIR-Modell. Auch hier wird θ 3 unterschätzt, während die anderen mit guter Genauigkeit geschätzt werden. Die Tatsache, dass die Komplexität des Modells durch die Wahl von θ 4 = 0 reduziert wurde, konnte also nichts verbessern. 3.3 Konsistenz des GMM-Schätzers Es soll nun untersucht werden, ab welcher Stichprobengröße der GMM-Schätzer gute Ergebnisse liefert. Dazu werden zunächst wie in 3.1 zwei CIR-Prozesse mit θ = (1, 1, 0.5 16

4 Zusammenfassung und = 0.001 simuliert. Diese Prozesse werden dann mit verschiedenen Schrittweiten abgetastet und die zweite Hälfte der entstehenden Trajektorie so behalten, dass n {10, 50, 100, 200, 400, 1000, 2000, 5000}. Die berechneten Schätzungen sind in Tabelle 2 dargestellt. Dabei wurde für alle Schätzungen der zunächst zufällig bestimmte Startpunkt (0.49, 0.34, 0.96) gewählt. Es fällt auf, dass die Schätzungen bis n = 200 sehr stark streuen. Ab dort beginnen sich die Schätzungen ˆθ 1 und ˆθ 2 mit steigendem Stichprobenumfang ihren wahren Werten anzunähern. Bei ˆθ 3 wird wie zuvor die Problematik des Unterschätzens deutlich. Vergleicht man diese Schätzungen mit der Maximum-Likelihood-Schätzung, fällt auf, dass das Optimieren der Likelihood bei den Trajektorieren mittels der Funktion mle erst ab einer Stichprobengröße von n = 1000 funktioniert. Die ab dann berechneten Schätzungen sind jedoch besser als die der generalisierten Momentenmethode. Tabelle 2: GMM-Schätzungen für ein CIR-Modell mit verschiedenen Stichprobengrößen für zwei Trajektorien n ˆθ1 ˆθ2 ˆθ3 n ˆθ1 ˆθ2 ˆθ3 10 1.67 1.53 0.31 10 1.31 1.65 0.48 50 0.51 0.51 0.29 50 1.82 2.00 0.47 100 1.96 2.00 0.66 100 1.04 1.05 0.47 200 1.36 1.32 0.50 200 1.34 1.34 0.49 400 1.24 1.24 0.42 400 1.31 1.28 0.46 1000 1.28 1.27 0.39 1000 1.06 1.12 0.35 2000 1.15 1.14 0.38 2000 1.11 1.08 0.38 5000 1.07 1.06 0.36 5000 1.02 1.00 0.36 4 Zusammenfassung Das Ziel dieser Arbeit war die Untersuchung der generalisierten Momentenmethode am Beispiel von stochastischen Differentialgleichungen. Dazu wurden die nötigen Momentenbedingungen explizit formuliert. Um die Qualität der Schätzungen beurteilen zu können, wurden sie zunächst mit den Maximum-Likelihood-Schätzungen verglichen. Dabei kann festgestellt werden, dass die Parameter, die den Drift eines Prozesses beschreiben, gut geschätzt werden, während die Volatilität bei den untersuchen Modellen stets unterschätzt wurde. Wenn die Annahmen für die Maximum-Likelihood-Methode erfüllt sind, sollte diese somit auch verwendet werden. Falls 17

4 Zusammenfassung dies jedoch nicht der Fall ist, bietet sich die generalisierte Momentenmethode an, wenn die theoretischen Momente und die Momentenbedingungen bestimmt werden können. Außerdem konnte gezeigt werden, dass der generalisierte Momentenschätzer bereits für relativ kleine Stichprobengrößen ab n = 100 berechenbar ist, während der Maximum-Likelihood-Schätzer für die entsprechende Parametereinstellung erst ab n = 1000 berechenbar ist. Ein besonderes Augenmerk muss auch auf den verwendeten Optimierungsalgorithmus gelegt werden. Je nach verwendeter Parametereinstellung kann die Wahl der Startlösung entscheidend für die Schätzung sein. Die für die Ausarbeitung durchgeführten Simulationen können jedoch nur ein erster Ansatz für die Untersuchung der generalisierten Momente für die Schätzung von dynamischen System sein. Vor allen wäre es interessant die Qualität des Schätzers bei realistischen Daten zu simulieren. Im Rahmen dieser Arbeit konnten nur einige wenige Parametereinstellungen und Modelle ausprobiert. Das bietet einen Ansatzpunkt für weitere Untersuchungen. Außerdem ist es von Interesse die Struktur der Momentenbedingungen näher zu untersuchen. Dort stellt sich vor allem die Frage, welche Bedingungen optimalerweise werden um eine möglichst gute Paramterschätzung zu ermöglichen, damit auch die Schätzung der Volatilität verbessert werden kann. Zusammenfassend lässt sich basierend auf den hier erzielten Erkenntnissen sagen, dass die generalisierte Momentenmethode mit wenigen Annahmen Möglichkeiten zur Parameterschätzung anbieten kann. 18

Literatur Literatur Fletcher, R. (1987). Practical Methods of Optimization. Wiley. Genschel U. und Becker C. (2004). Schließende Statistik: Grundlegende Methoden. Springer. Berlin. Iacus, S.M. (2008). Simulation and Inference for Stochastic Differential Equations. Springer. New York. Iacus, S.M. (2009). sde: Simulation and Inference for Stochastic Differential Equations. R package version 2.0.10. Newey, W.K. und West, K.D. (1994). Automatic lag selection in covariance matrix estimation. Rev. Econ. Stud., 61, S.631-653. 19