Fortgeschrittene Ökonometrie: Maximum Likelihood

Ähnliche Dokumente
Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Einführung in die Maximum Likelihood Methodik

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

5 Allgemeine Verfahren zum Testen von Hypothesen

Inferenz im multiplen Regressionsmodell

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Proxies, Endogenität, Instrumentvariablenschätzung

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Willkommen zur Vorlesung Statistik (Master)

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

x t2 y t = 160, y = 8, y y = 3400 t=1

Musterlösung. Modulklausur Multivariate Verfahren

Multivariate Verfahren

3.2 Maximum-Likelihood-Schätzung

1. Grundbegri e der Stochastik

Frequentisten und Bayesianer. Volker Tresp

Simultane Mehrgleichungssysteme: Parameterschätzung

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Multivariate Verfahren

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

Lösung Übungsblatt 5

Probeklausur - Statistik II, SoSe 2017

5 Erwartungswerte, Varianzen und Kovarianzen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Nachklausur Mathematik für Biologen WS 08/09

Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann. 8. Übungsblatt zur Vorlesung Ökonometrie

Poisson Regression & Verallgemeinerte lineare Modelle

Statistik II. IV. Hypothesentests. Martin Huber

i =1 i =2 i =3 x i y i 4 0 1

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Vorlesung Wissensentdeckung

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

1 Gemischte Lineare Modelle

Vorlesung: Statistik II für Wirtschaftswissenschaft

Maximum-Likelihood Schätzung

Stochastik Serie 11. ETH Zürich HS 2018

Mathematik für Biologen

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).

Goethe-Universität Frankfurt

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Musterlösung der Klausur vom 29. Juli 2003

Mehrdimensionale Zufallsvariablen

Biostatistik, Sommer 2017

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

How To Find Out If A Ball Is In An Urn

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Willkommen zur Vorlesung Statistik (Master)

Statistik I für Betriebswirte Vorlesung 4

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

OLS-Schätzung: asymptotische Eigenschaften

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Wahrscheinlichkeitsrechnung und Statistik

Masterprüfung. Die Klausur besteht aus 3 Aufgaben, die alle bearbeitet werden müssen.

Stochastische Trends und Unit root-tests

Lineare Regression. Kapitel Regressionsgerade

Kapitel VI - Maximum-Likelihood-Schätzfunktionen

Nicht-kontinuierliche abhängige Variablen: Das generalisierte lineare Modell und die Parameterschätzung via Maximum Likelihood

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname.

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Mathematik 2 Probeprüfung 1

7. Stochastische Prozesse und Zeitreihenmodelle

4 MEHRDIMENSIONALE VERTEILUNGEN

Schätzung im multiplen linearen Modell VI

Übung V Lineares Regressionsmodell

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Wahrscheinlichkeitstheorie und Statistik vom

Mathematik für Biologen

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Schriftliche Prüfung (2 Stunden)

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

3. Geben Sie Modus, Erwartungswert und Varianz der Zufallsvariablen X an.

Statistik und Wahrscheinlichkeitsrechnung

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester Namensschild

Wichtige Definitionen und Aussagen

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Übungsscheinklausur,

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Übungsblatt 9 (25. bis 29. Juni)

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

( x i 1 ; x i ] \(ỹ j 1 ; ỹ j ]

DWT 314/460 csusanne Albers

Transkript:

Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,..., n, die einer Zufallsstichprobe entstammen. Die Dichte der Poisson-Verteilung lautet: y y! f yt (y; ) = e y = 0,, 2, 3,... 0 sonst. Der wahre Parameterwert des DGP ist 0. Es gilt E 0 (y t ) = Var 0 (y t ) = 0, wobei E 0 und Var 0 Erwartungswert und Varianz unter dem tatsächlichen DGP bezeichnen. a) Wie lautet die gemeinsame Wahrscheinlichkeitsfunktion f(y, y 2,..., y n ; 0 )? b) Bestimmen Sie die Log-Likelihoodfunktion l(; y). c) Berechnen Sie den Score (bzw. Gradienten) g(; y) := l(;y). (2 Punkte) d) Berechnen Sie die Hessematrix (hier skalar) H(; y) = 2 l(;y). (2 Punkte) 2 e) Zeigen Sie, dass gilt E 0 [l(; y t )] = E 0 [g( ; y)]. (4 Punkte) = f) Zeigen Sie, dass gilt 0 = argmax E 0 [l(; y t )]. g) Wie lautet der Maximum-Likelihood-Schätzer ˆ ML? (2 Punkte) h) Inwiefern lässt sich der ML-Schätzer als GMM-Schätzer interpretieren? (2 Punkte) i) Wie lautet die Varianz des ML-Schätzers? (2 Punkte) j) Geben Sie einen Schätzer für die Varianz des ML-Schätzers an. (2 Punkte) k) Geben Sie 3 verschiedene Möglichkeiten an, die Varianz allgemeiner ML-Schätzer zu schätzen. Bestimmen Sie diese für das vorliegende Modell. (5 Punkte )

2 Exponentialverteilung Sie beobachten Daten y = (0.37, 0.3, 0.53, 0.04, 0.4) T, die als Zufallsstichprobe einer exponentialverteilten Variablen modelliert werden. Die Dichte lautet 0 e 0y y > 0 f yt (y; 0 ) = 0 y 0. a) Berechnen Sie die gemeinsame Dichte f y (y, y 2,..., y n ; 0 ) sowie die Log-Likelihood l(; y). b) Ist der ML-Schätzer ˆ ML für jede gegebene Stichprobe global bzw. lokal identifiziert? (3 Punkte) c) Ist der Parameter 0 global bzw. lokal identifiziert? (6 Punkte) d) Berechnen Sie plim l(; y). Welche Aussagen lassen sich über asymptotische Identifikation n von 0 treffen? e) Geben Sie die Fisher-Information I() an. Bestimmen Sie die asymptotische Fisher-Information I(). f) Berechnen Sie die Hessematrix (hier skalar) H() und die asymptotische Hessematrix H(). g) Zeigen Sie, dass die asymptotische Informationsmatrixgleichheit gilt. ( Punkt) Sie wollen anhand des gegebenen Datensatzes die Hypothese testen. H 0 : = 5 vs. H : 5 h) Berechnen Sie den Schätzer ˆ ML. i) Geben Sie drei mögliche Schätzer für die Varianz des ML-Schätzers an. Entscheiden Sie sich für einen. (4 Punkte) j) Berechnen Sie die Wald-Teststatistik. k) Wie lautet die Teststatistik des Likelihood-Ratio-Tests? l) Bestimmen Sie die Teststatistik des Lagrange-Multiplikatortests. m) Treffen Sie jeweils eine Testentscheidung. 2

3 Normalverteilung Die Zufallsvariablen y t, t =,..., n entstammen einer Zufallsstichprobe. Ihre Dichte ist gegeben durch f yt (y ) = 2 (2π) 2 e 2 y2, wobei 0 der Parameter des datengenerierenden Prozesses ist. E 0, Var 0 und plim 0 sind Erwartungswert, Varianz und Wahrscheinlichkeitslimes unter dem DGP. Es gilt E 0 (y t ) = 0, Var 0 (y t ) = E 0 (yt 2 ) =, Var 0 (yt 2 ) = 2. 0 0 2 a) Zeigen Sie, dass die Log-Likelihood gegeben ist durch l( y,..., y n ) = n 2 log(2π) + n 2 log() 2 n yt 2. t= (4 Punkte) b) Berechnen Sie den Gradienten (bzw. Score) g( y,..., y n ). [Falls Sie kein Ergebnis erhalten, verwenden Sie im Folgenden g( y,..., y n ) = n n t= y2 t.] c) Bestimmen Sie die Hessematrix H( y,..., y n ) sowie die asymptotische Hessematrix H() := plim 0 n H(; y,..., y n ). d) Bestimmen Sie die asymptotische Fisher-Information I( 0 ) = lim n n Var 0[g( 0 ; y,..., y n )]. (4 Punkte) e) Bestimmen Sie die Fisher-Information I() = Var [g(; y,..., y n )]. (4 Punkte) f) Zeigen Sie für den vorliegenden Fall, dass 0 = argmax E 0 (l( y,..., y n )). (4 Punkte) Sie beobachten eine Stichprobe y = ( 4.8, 0.6, 5.0, 2.0,.5) T. g) Berechnen Sie den ML-Schätzer für. [Falls Sie kein Ergebnis erhalten, verwenden Sie im Folgenden ˆ ML = 3.] h) Wie kann man allgemein die Varianz von ML-Schätzern schätzen? Nennen Sie 3 Möglichkeiten. i) Geben Sie für die vorliegende Stichprobe eine Schätzung für Var(ˆ ML ) an. j) Führen Sie einen Likelihood-Ratio-Test der folgenden Hypothese durch: H 0 : 0 =. (4 Punkte) 3

4 Bernoulliverteilung Die Zufallsvariablen y t, t =,..., n entstammen einer Zufallsstichprobe (y t IID). Sie nehmen den Wert an mit Wahrscheinlichkeit und den Wert 0 mit Wahrscheinlichkeit, folgen also einer Bernoulliverteilung. Die Wahrscheinlichkeitsfunktion lautet y + ( )( y) y 0, } f(y; ) = 0 sonst. 0 sei der Parameter des datengenerierenden Prozesses, E 0, Var 0 und plim 0 sind Erwartungswert, Varianz und Wahrscheinlichkeitslimes unter dem DGP. Es gilt E 0 (y t ) = 0, Var 0 (y t ) = 0 ( 0 ). Die Log-Likelihood ist gegeben durch n l(; y,..., y n ) = log() y t + log( )(n t= n y t ). t= a) Berechnen Sie den Gradienten (bzw. Score) g(; y,..., y n ). (4 Punkte) Die Hessematrix lautet n t= H(; y,..., y n ) = y t n n t= y t ( ) 2. b) Zeigen Sie für den vorliegenden Fall, dass 0 = argmax E 0 [l(; y,..., y n )]. (6 Punkte) c) Berechnen Sie H( 0 ) = plim 0 n H( 0; y,..., y n ). Sie beobachten eine Stichprobe y = (0, 0,, 0, 0,, 0, 0). d) Berechnen Sie den ML-Schätzer für. e) Wie kann man allgemein die Varianz von ML-Schätzern schätzen? Nennen Sie 3 Möglichkeiten. Geben Sie eine Schätzung für Var(ˆ) an. f) Führen Sie einen Likelihood-Ratio-Test der folgenden Hypothese durch: H 0 : 0 = 0.5. 4

5 Poissonregression Bei der Poisson-Regression ist der Parameter λ von erklärenden Variablen abhängig, man setzt also im Fall mit nur einem Regressor λ t = e + 2 x t. Der Parametervektor, der den wahren DGP charakterisiert, wird mit 0 = ( 0 02 ) bezeichnet. a) Berechnen Sie E(y t x t ) sowie Var(y t x t ). b) Berechnen Sie die bedingte Wahrscheinlichkeitsfunktion f(y x; ). Wie lautet die bedingte Log-Likelihoodfunktion l(; y x)? c) Geben Sie E 0 [l(; y x) x] (in Abhängigkeit von x, und 0 ) an. E 0 bedeutet, dass dem Erwartungswert die wahre bedingte Wahrscheinlichkeitsfunktion zugrundeliegt. Wie lautet der Wert für, der diesen Ausdruck maximiert? d) Bestimmen Sie den Gradientenvektor g(; y x) = l(; y x) und die Hessematrix H(; y x) = 2 l(; y x) T. e) Mit E ist nun der Erwartungswert unter dem DGP gemeint, der durch charakterisiert ist. Zeigen Sie, dass für I() := E [g(;.)g() T x] = Var (g() x) gilt H() = I(). e) Laden Sie den Datensatz DoctorVisits aus dem AER Paket (via data("doctorvisits")). Stellen Sie die Variablen graphisch dar. f) Schreiben Sie nun die oben in b) berechnete Likelihood als Funktion (des Parametervektors und der Daten) in R. LogLik <- function(theta,y,x)... g) Versuchen Sie, die Likelihood für das Regressionsmodell E[visits t income t ] = exp( + 2 income t ) für verschiedene Parameterwerte in Θ = [ ; ] [ ; ] zu berechnen. Verwenden Sie eine Doppelschleife, wobei die Werte in eine Matrix geschrieben werden. Wo ungefähr liegt das Minimum? Stellen Sie die Likelihood nahe des Minimums graphisch als Contour-Plot mittels contour-befehl dar. 5

Beispielcode: grid.size <- 00 th <- seq(-,,length=grid.size) th2 <- seq(-,,length=grid.size) LL <- matrix(0,grid.size,grid.size) for(i in :grid.size) for (j in :grid.size) LL[i,j] <- LogLik(c(th[i],th2[j]),visits,income) } } which(ll==max(ll),arr.ind=true) h) Sehen Sie in der R-Hilfe die Funktion nlm nach. Diese stellt einen (Quasi-) Newton Algorithmus zur numerischen Minimierung zur Verfügung. Beispiel für eine Minimierung mit der nlm Funktion (p bezeichnet die Startwerte) f <- function(x,a) -cos(x[])+a*x[]^2+(x[2]-4)^2 nlm(f, p = c(0.2,4.4), a = 0.002, hessian=true ) i) Wenden Sie nlm auf die negative Likelihood an. Wählen Sie dazu verschiedene Startwerte. j) Versuchen Sie, die Varianz-Kovarianz-Matrix der geschätzten Koeffizienten zu schätzen. (5 Punkte) k) Vergleichen Sie das Ergebnis mit dem der glm-funktion count <- glm(visits~income, family=poisson, data=doctorvisits) summary(count) Finden Sie eine sinnvolle Spezifikation durch die Hereinnahme weiterer erklärender Variablen. Interpretieren Sie das Ergebnis. 6 Autoregressiver Prozess Betrachten Sie im Folgenden einen stationären AR(2) Prozess y t = α y t + α 2 y t 2 + u t, t = 0, ±, ±2,... u iid t N(0, σ 2 ) 6

Die ersten beiden Autokovarianzen lassen sich mithilfe der Yule-Walker Gleichungen berechnen (siehe Davidson und MacKinnon; 2004, S. 558) und sind γ 0 = σ2 ( α 2 ) D γ = σ2 α D mit D := ( + α 2 )( + α α 2 )( α α 2 ). a) Sie beobachten eine Trajektorie y t } T t=. Wie lautet die gemeinsame Dichtefunktion des y t Prozesses? (Keine explizite Berechnung der gesamten Kovarianzmatrix nötig!) Berechnen Sie den marginalen Teil f(y, y 2 ; α, α 2, σ) sowie für t 3 die bedingten Dichten f(y t y t, y t 2,... ; α, α 2, σ) in Abhängigkeit der Modellparameter. Hinweis: Die Dichtefunktion eines gemeinsam normalverteilten T -dimensionalen Zufallsvektors z mit E(z) = 0 und Var(z) = Σ lautet f z (z) = (2π) T/2 det(σ) /2 exp( 2 z Σ z) = f(z, z 2 )f(z 3 z 2, z )f(z 4 z 3, z 2, z )... b) Wie lautet die Log-Likelihoodfunktion l(α, α 2, σ; y)? Schreiben Sie in R eine Funktion, die für beliebige Parameterwerte und eine Trajektorie y die mit - multiplizierte Log- Likelihood ausgibt. Benutzen Sie einen Vektor für die Parameterwerte, also negloglik <- function(theta,y)... c) Suchen Sie nun jährliche BIP-Wachstumsraten der Eurozone und laden Sie diese in R. Stellen Sie diese dar. d) Bereinigen Sie die Wachstumsraten um ihren Mittelwert und schätzen Sie die AR Parameter α, α 2 sowie σ. Benutzen Sie hierzu die nlm Funktion für nichtlineare Minimierung. Minimieren Sie hierbei l(α, α 2, σ; y). Wählen Sie geeignete Startwerte, die Sie vorher mit OLS erhalten. Achten Sie darauf, der nlm-funktion auch den Datenvektor y zu übergeben. (5 Punkte) e) Als Option des nlm Befehls liefert hessian=true die numerisch berechnete Hessematrix am Schätzwert. Bestimmen Sie hieraus die Varianz-Kovarianzmatrix der Parameterschätzer. Testen Sie dann die Nullhypothese H 0 : α 2 = 0 mittels eines Wald-Tests. f) Prüfen Sie diesselbe Hypothese H 0 : α 2 = 0 mit einem Likelihood-Ratio Test. g) Vergleichen Sie Ihre Ergebnisse mit denen der arma Funktion sowie des OLS-Schätzers. Fertigen Sie eine Monte-Carlo-Studie an, die Verzerrung, Standardabweichung und MSE von OLS und ML miteinander vergleicht. 7