acf(y) pacf(y) Series y Series y Index ACF Lag Partial ACF Lag

Ähnliche Dokumente
6. Statistische Schätzung von ARIMA Modellen

Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/

Übungsblatt 4. Autokovarianz, Autokorrelation Invertierbarkeit und Kausalität

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

7. Stochastische Prozesse und Zeitreihenmodelle

Ausgewählte Probleme der Ökonometrie

Stochastische Prozesse und Box-Jenkins Technik

10 ARIMA-Modelle für nicht-stationäre Zeitreihen

1 Gemischte Lineare Modelle

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Übung 1: Mathematische und statistische Grundlagen

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

i =1 i =2 i =3 x i y i 4 0 1

Zeitreihenanalyse in den Wirtschafts Wissenschaften

Stochastik-Praktikum

1 Beispiel zur Methode der kleinsten Quadrate

Fortgeschrittene Ökonometrie: Maximum Likelihood

Hauptseminar Technische Informationssysteme

6. Schätzung stationärer ARMA-Modelle

Hauptseminar zum Thema:

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Analyse eines Forschungsthemas Franziska Ressel

Ausgewählte Probleme der Ökonometrie

Mathematik für Biologen

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Wahrscheinlichkeitsrechnung

Statistik I für Betriebswirte Vorlesung 14

Statistik und Wahrscheinlichkeitsrechnung

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer

Strukturgleichungsmodellierung

1 Einführung Ökonometrie... 1

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***

Stochastik Praktikum Zeitreihenanalyse

Multiplizitätskorrektur bei Variablenselektion

Vorlesung 3: Schätzverfahren

Die Maximum-Likelihood-Methode

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Optimierung für Nichtmathematiker

5. Zeitreihenanalyse und Prognoseverfahren

How To Find Out If A Ball Is In An Urn

Auswertung und Lösung

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Wichtige Definitionen und Aussagen

SBWL Tourismusanalyse und Freizeitmarketing

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft.

Auswertung und Lösung

Stoffverteilungsplan Mathematik Leistungskurs. Lambacher Schweizer Stochastik ISBN Klassenarbeit

Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann. 8. Übungsblatt zur Vorlesung Ökonometrie

Zerlegung von Zeitreihen

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

3 Grundlagen statistischer Tests (Kap. 8 IS)

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Prüfung im Fach Mikroökonometrie im Sommersemester 2014 Aufgaben

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Institut für Stochastik, SoSe K L A U S U R , 13:

Statistik und Wahrscheinlichkeitsrechnung

Computergestützte Datenanalyse in der Kern- und Teilchenphysik

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

Mathematik für Biologen

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

9 Robuste Methoden. 9.1 Einfluss und Robustheit. i (x i x) 2 = i x iy i. c 1 = x 2 + i (x i x) 2. Einfache Regression: 9.1 Einfluss und Robustheit 205

Kategorielle Zielgrössen

Mixed Effects Models: Wachstumskurven

Musterlösung der Klausur vom 29. Juli 2003

Wahrscheinlichkeitsrechnung und Statistik

2.7 Der Shannon-Fano-Elias Code

SBWL Tourismusanalyse und Freizeitmarketing

Musterlösung. Modulklausur Multivariate Verfahren

Kompaktskript zur Vorlesung Prognoseverfahren

Hauptseminar Technische Informationssysteme

> library(nlme) > fit <- lme(y ~ 1, random = ~1 id, data = sim.y.long) > summary(fit)

Entwicklung des Auswertungsmodells

Mathematik für Biologen

2.3 Intervallschätzung

3.1 Punktschätzer für Mittelwert µ und Varianz σ 2. Messungen x 1,..., x N, die unabhängig voneinander auf gleiche Weise gewonnen worden sind

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).

Übung V Lineares Regressionsmodell

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Statistik Probeprüfung 1

Vorlesung: Lineare Modelle

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Statistik I für Betriebswirte Vorlesung 13

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

Vorlesung Wissensentdeckung

Das Doppelstern-Modell Vorgehen beim Bestimmen der Modellparameter und ihrer Fehler

Stoffverteilungsplan Mathematik Grundkurs. Lambacher Schweizer Stochastik ISBN Klassenarbeit

Multivariate Verfahren

Wahrscheinlichkeitstheorie und Statistik vom

Untersuchung von Algorithmen zur Fehlerlokalisation und Prognose in Automatisierungsprozessen. Yongrui Qiao Yongrui Qiao

Einführung in die Maximum Likelihood Methodik

Transkript:

Aufgabe 47: Parameterschätzung und Modellwahl im ARMA-Modell (Software) Analysieren Sie die in der Datei aufgabe47.txt gegebene Zeitreihe (y t ), t = 1,..., 100. Nehmen Sie an, dass diese Realisation eines ARMA(p,q)-Prozesses ist. (a) Bestimmen Sie anhand der empirischen Autokorrelationsfunktion und partiellen Autokorrelationsfunktion die vermutliche Modellordnung p und q. y <- scan(file="http://www.statistik.tu-dortmund.de/~fried/zeitreihen/ Uebung/Daten/aufgabe47.txt") plot(y, type="o") y 8 10 14 0 20 40 60 80 100 Index acf(y) Series y ACF 0.2 0.2 0.6 1.0 0 5 10 15 20 Lag pacf(y) Series y Partial ACF 0.2 0.2 0.6 5 10 15 20 Lag 1

ACF fällt geometrisch ab, PACF hat zwei signifikante Lags. Das spricht für die Annahme eines AR(2)-Prozesses. (b) Passen Sie mit dem Yule-Walker-Schätzer jeweils ein AR(p)-Modell an für p = 1, 2, 3. Verwende Formel aus Gleichung (8.15) des Vorlesungsskripts: ar.yulewalker <- function(y, p=1){ acf_est <- acf(y, lag.max=p, plot=false)$acf[,1,1] gamma_est <- acf_est[-1] Gamma_est <- matrix(acf_est[abs(row(diag(p))-col(diag(p)))+1], nrow=p, ncol=p) phi_est <- as.vector(solve(gamma_est)%*%gamma_est) return(phi_est) } ar.yulewalker(y, p=1) [1] 0. 8277 ar.yulewalker(y, p=2) [1] 0. 6405 0. 2262 ar.yulewalker(y, p=3) [1] 0. 64338 0. 23449-0. 01292 Oder verwende alternativ eine in R verfügbare Funktion zur Anpassung von AR(p)-Modellen, beispielhaft hier für das AR(3)-Modell: ar(y, method="yule-walker", aic=false, order.max=3) ar(x = y, aic = FALSE, order. max = 3, method = "yule - walker ") 1 2 3 0. 643 0. 234-0.013 Order selected 3 sigma ^2 estimated as 1.1 Hier wird zusätzlich ein Mittelwert durch das arithmetische Mittel der Beobachtungen geschätzt (wenn auch nicht standardmäßig angezeigt). Das passt zum Yule-Walker-Schätter, da auch dieser ein Momentenschätzer ist. Außerdem wird die Varianz der Innovationen σ 2 geschätzt und auch ausgegeben. Wir haben in diesem Fall die Ordnung p des AR(p)-Modells mit der Argument order.max vorgegeben. Setzt man das Argument aic=true, würde automatisch die Modellordnung gewählt, die unter allen Modellen mit einer Modellordnung von bis zu order.max den kleinsten AIC-Wert hat. 2

(c) Passen Sie mit exakter ML-Schätzung jeweils ein AR(p)-Modell an für p = 1, 2, 3. ar(y, method="mle", aic=false, order.max=1)$ar ar1 0. 8276 ar(y, method="mle", aic=false, order.max=2)$ar Warning : possible convergence problem : optim gave code = 1 ar1 ar2 0. 6488 0. 2124 ar(y, method="mle", aic=false, order.max=3)$ar ar1 ar2 ar3 0. 65135 0. 22215-0. 01434 Oder alternativ mit einer R-Funktion zur Anpassungen von ARIMA-Modellen, welche natürlich auch den Spezialfall eines AR(p)-Modells anpassen kann: (ar1.exml <- arima(y, order=c(1,0,0), method="ml")) arima (x = y, order = c(1, 0, 0), method = "ML ") ar1 intercept 0. 828 10. 937 s.e. 0.054 0.579 sigma ^2 estimated as 1. 09: log likelihood = -146.7, aic = 299.4 (ar2.exml <- arima(y, order=c(2,0,0), method="ml")) arima (x = y, order = c(2, 0, 0), method = "ML ") ar1 ar2 intercept 0. 648 0. 213 10. 915 s.e. 0.099 0.099 0.684 sigma ^2 estimated as 1. 04: log likelihood = -144.4, aic = 296.9 (ar3.exml <- arima(y, order=c(3,0,0), method="ml")) arima (x = y, order = c(3, 0, 0), method = "ML ") 3

ar1 ar2 ar3 intercept 0. 651 0. 222-0.014 10. 916 s.e. 0.101 0.120 0.101 0.677 sigma ^2 estimated as 1. 04: log likelihood = -144.4, aic = 298.9 Hier wird ebenfalls ein Mittelwert ins Modell aufgenommen, allerdings nicht durch ein einfaches arithmetisches Mittel geschätzt. Unterschiede sind auf die unterschiedlichen Algorithmen zur numerischen Optimierung zurückzuführen. (d) Passen Sie mit bedingter ML-Schätzung jeweils ein AR(p)-Modell an für p = 1, 2, 3. Wie in der Vorlesung gesagt, ist der aus der bedingten Likelihood ermittelte Schätzer ein Kleinste-Quadrate-Schätzer. Nutze deshalb die entsprechenden Optionen. ar(y, method="ols", aic=false, order.max=1)$ar,, 1 [,1] [1,] 0.8319 ar(y, method="ols", aic=false, order.max=2)$ar,, 1 [,1] [1,] 0.6633 [2,] 0.2097 ar(y, method="ols", aic=false, order.max=3)$ar,, 1 [,1] [1,] 0.66614 [2,] 0.21963 [3,] -0.01467 Oder alternativ mit der R-Funktion arima, hier am Beispiel p = 2: arima(y, order=c(2,0,0), method="css") arima (x = y, order = c(2, 0, 0), method = " CSS ") ar1 ar2 intercept 0. 663 0. 210 10. 929 s.e. 0.097 0.097 0.801 sigma ^2 estimated as 1. 03: part log likelihood = -143.2 4

(e) Passen Sie mit exakter ML-Schätzung ein ARMA(1,1)-Modell an. (arma11.exml <- arima(y, order=c(1,0,1), method="css-ml")) arima (x = y, order = c(1, 0, 1), method = "CSS -ML ") ar1 ma1 intercept 0. 898-0.240 10. 908 s.e. 0.049 0.111 0.705 sigma ^2 estimated as 1. 04: log likelihood = -144.6, aic = 297.2 Übrigens: Mit dem Argument method= CSS-ML bestimmt die Funktion arima zunächst mit einem bedingten ML-Schätzer eine Startlösung, welche dann für die Optimierung der exakten Likelihood verwendet wird. Diese Methode ist auch die Voreinstellung und zu empfehlen, da sie etwas schneller ist als direkt die exakte Likelihood zu maximieren. (f) Vergleichen Sie die Anpassungen aus den vorherigen Aufgabenteilen. Berücksichtigen Sie dabei die Modellwahlkriterien aus Abschnitt 8.3 der Vorlesung. Für welches Modell würden Sie sich auf dieser Grundlage entscheiden? Begründen Sie Ihre Entscheidung ausführlich. Vorbemerkungen: Die verwendeten Modellwahlkriterien beruhen auf Maximum-Likelihood-Schätzungen, eignen sich also streng genommen nur für die Schätzer aus den Aufgabenteilen (c) und (e). Deshalb werden hier auch diese Anpassungen verglichen. Um einen fairen Vergleich zu ermöglichen, müssen alle Verfahren mit der gleichen Anzahl von Beobachtungen angepasst werden. Laut Bemerkung auf S. 136 des Vorlesungsskripts sind das für ein saisonales ARIMA-Modell n d l D. In unserem Fall werden also jeweils alle 100 Beobachtungen verwendet. Da jeweils noch ein Mittelwert ins Modell aufgenommen wird, haben wir insgesamt einen Parameter mehr. Die Anzahl der Parameter nennen wir wie in der Vorlesung k. #Funktion zur Berechnung verschiedener Modellwahlkriterien: modellwahlkriterien.ar <- function(sigma2_est, n, k){ ausgabe <- c( FPE=sigma2_est*(n+k)/(n-k), AIC=n*log(sigma2_est)+2*k, AICC=n*log(sigma2_est)+2*k*n/(n-k+1), BIC=n*log(sigma2_est)+k*log(n)) return(ausgabe) } modellwahlkriterien.ar(sigma2_est=ar1.exml$sigma2, n=length(y), k=1+1) FPE AIC AICC BIC 1. 133 12. 491 12. 531 17. 701 modellwahlkriterien.ar(sigma2_est=ar2.exml$sigma2, n=length(y), k=2+1) FPE AIC AICC BIC 1. 104 9. 891 10. 013 17. 706 modellwahlkriterien.ar(sigma2_est=ar3.exml$sigma2, n=length(y), k=3+1) 5

FPE AIC AICC BIC 1. 126 11. 868 12. 115 22. 289 modellwahlkriterien.ar(sigma2_est=arma11.exml$sigma2, n=length(y), k=2+1) FPE AIC AICC BIC 1. 107 10. 173 10. 296 17. 989 Je nach betrachtetem Kriterium sind unterschiedliche Modelle am besten geeignet. Das FPE-Kriterium liefert Modelle, die gut für eine Vorhersage auf neuen Daten geeignet sind. Das BIC liefert besonders sparsame Modelle, da es in besonderem Maße Modelle mit wenigen Parametern bevorzugt. Das ist auch hier der Fall: Laut BIC ist das sparsamste AR(1)-Modell (wenn auch knapp) das geeignetste. Alle übrigen Kriterien entscheiden sich hier für das (wahre) AR(2)-Modell. (g) Tatsächlich wurde die Zeitreihe aus dem Modell Y t = 10 + 0.6(Y t 1 10) + 0.3(Y t 2 10) + a t simuliert, wobei (a t ) standardnormalverteiltes weißes Rauschen ist. Wie beurteilen Sie die vorherigen Aufgabenteile mit diesem Wissen? Die Schätzungen der unterschiedlichen Schätzmethoden sind in diesem Beispiel alle sehr ähnlich. Im Vergleich zu den wahren Parameterwerten sind die des AR(2)-Modells schon halbwegs nahe an diesen. Für eine noch präzisere Schätzung müsste der Stichprobenumfang größer als n = 100 sein. 6