Definition und Beispiele. Lineare Prozesse. Kausalität und Invertierbarkeit. Berechnung der Autokovarianzfunktion. Prognosen in ARMA-Modellen

Größe: px
Ab Seite anzeigen:

Download "Definition und Beispiele. Lineare Prozesse. Kausalität und Invertierbarkeit. Berechnung der Autokovarianzfunktion. Prognosen in ARMA-Modellen"

Transkript

1 Kap. 2: ARMA-Prozesse Definition und Beispiele Lineare Prozesse Kausalität und Invertierbarkeit Berechnung der Autokovarianzfunktion Prognosen in ARMA-Modellen Wold-Darstellung

2 2.1 Definition und Beispiele Definition 2.1. (ARMA-Prozess) Ein SP {y t } heisst autoregressiver Moving Average (ARMA)-Prozess der Ordnung (p, q), falls er stationär ist und die Gleichung y t φ 1 y t 1... φ p y t p = ɛ t + θ 1 ɛ t θ q ɛ t q erfüllt mit {ɛ t } W R(0, σ 2 ) und φ p 0 θ q. Definierende Gleichung heisst eine stochastische Differenzengleichung. Erweiterung: ARMA-Prozess mit Mittelwert µ, falls {y t µ} ARMA. Fragen: wann sind solche Prozesse stationär? wie bestimmt man die ACF? wie schätzt man die Parameter? ( später) Warum überhaupt ARMA? In einem gewissen Sinn lassen sich alle stationären Prozesse beliebig gut durch ARMA-Prozesse approximieren. C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-1 U Basel, FS 2009

3 2.1 Definition und Beispiele Beispiele: (a) MA(1) schon bekannt (b) AR(1) ist nicht notwendig stationär: für φ = 1 ergibt sich Random Walk! Für φ < 1 lässt sich Prozess y t = φy t 1 + ɛ t formal umschreiben in y t = φ j ɛ t j Die ACF ist dann γ y (h) = σ2 φ h 1 φ 2, h Z Für φ > 1 lässt sich Prozess formal umschreiben in y t = j=1 ( ) j 1 ɛ t+j φ C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-2 U Basel, FS 2009

4 2.1 Definition und Beispiele φ = ACF Time Lag C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-3 U Basel, FS 2009

5 2.1 Definition und Beispiele φ = ACF Time Lag C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-4 U Basel, FS 2009

6 2.1 Definition und Beispiele φ = ACF Time Lag C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-5 U Basel, FS 2009

7 2.1 Definition und Beispiele φ = ACF Time Lag C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-6 U Basel, FS 2009

8 2.2 Lineare Prozesse Definition 2.2. Ein SP {y t } heisst ein linearer Prozess, falls er folgende Darstellung besitzt: y t = j= ψ j ɛ t j =: ψ(l)ɛ t mit {ɛ t } W R(0, σ 2 ) und j= ψ j <. Nenne ψ(l) einen linearen Filter. Bem.: Die technische Bedingung j= ψ j < definiert letztlich Prozesse mit kurzem Gedächtnis. Es gibt auch stationäre Prozesse mit langem Gedächtnis, für die diese Bedingung verletzt ist. Gesucht: einfache Modelle für lineare Prozesse parametrisiere {ψ j }. Bei ARMA-Modellen hängen die ψ j nur von endlich vielen Parametern ab. Berechnung der ACF eines allgemeinen linearen Prozesses: Satz 2.3. Sei {y t } SP mit ACF γ y. Falls j= ψ j <, ist auch x t = ψ(l)y t stationär mit ACF γ x (h) = ψ j ψ k γ y (h + k j), h Z. j= k= C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-7 U Basel, FS 2009

9 2.2 Lineare Prozesse Bem.: Es gibt eine riesige Literatur zur Konstruktion von Filtern auch zu Schäden, die durch unsachgemässes Filtern angerichtet werden! Beispiele: Falls {y t } W R(0, σ 2 ), gilt γ x (h) = σ 2 j= ψ j ψ j+h. Daraus lassen sich die schon bekannten ACFs für MA(1) und AR(1) herleiten. Ausserdem gilt für den MA(q)-Prozess y t = ɛ t + θ 1 ɛ t θ q ɛ t q offenbar für h q und γ y (h) = 0 sonst. q h γ y (h) = σ 2 θ j θ j+ h. C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-8 U Basel, FS 2009

10 2.2 Lineare Prozesse Definition 2.4. Ein SP {y t } heisst ein MA( )-Prozess, falls y t = ψ j ɛ t j mit {ɛ t } W R(0, σ 2 ) und ψ j <. Beispiele: (a) Ein MA(q)-Prozess ist ein MA( )-Prozess mit ψ j = 0, j q + 1. (b) Ein stationärer AR(1)-Prozess ist ein MA( )-Prozess mit ψ j = φ j. Nächstes Problem: Wie sehen diese Darstellungen für allgemeine ARMA-Prozesse aus, wann und wie kann man sie berechnen? C. Kleiber: Analyse ökonomischer Zeitreihen Kap. 2-9 U Basel, FS 2009

11 2.3 Kausalität und Invertierbarkeit Wann gibt es eine MA( )-Darstellung eines ARMA-Prozesses? Definition 2.5. (Kausalität) Ein ARMA-Prozess φ(l)y t = θ(l)ɛ t heisst kausal bzgl. {ɛ t }, falls eine Folge {ψ j } existiert mit ψ j <, so dass y t = ψ j ɛ t j, ψ 0 = 1. Der schon bekannte AR(1)-Prozess mit φ < 1 ist demnach kausal bzgl. des verwendeten Weissen Rauschens. Der AR(1)-Prozess mit φ > 1 ist kausal nur bzgl. eines anderen Weissen Rauschens (zur Konstruktion siehe Neusser, p. 27). Aber wie erkennt man direkt an den Koeffizienten, ob ein Prozess kausal ist, und wie bestimmen sich die ψ j? Satz 2.6. Ein ARMA-Prozess φ(l)y t = θ(l)ɛ t, dessen Polynome keine gemeinsamen Nullstellen haben, ist kausal bzgl. {ɛ t } genau dann wenn φ(z) 0 für alle z 1. Weiter gilt ψ(z) = θ(z) φ(z) C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

12 2.3 Kausalität und Invertierbarkeit Beispiele: (a) AR(1): y t = 0.8y t 1 + ɛ t (b) AR(2): (1 + 4L 2 )y t = ɛ t (c) ARMA(2,1): (1 0.75L L 2 )y t = (1 0.5L)ɛ t (d) ARMA(1,1): φ(l) = 1 + L, θ(l) = 1 + L ist nach Kürzen ein Weisses Rauschen aber dies ist nicht die einzige Lösung der Gleichung. ( Sonderfall bei z = 1!) Bem.: (a) Kann man die Polynome nicht kürzen und existiert ein z = 1 mit φ(z) = 0, dann ist der Prozess instationär und insofern kein ARMA-Prozess in unserem Sinn. Der Prozess hat eine Einheitswurzel (unit root) (b) In der empirischen Makroökonomie nennt man die Funktion j ψ j die Impulsantwortfunktion (impulse response function) des Prozesses. Wird i.d.r. graphisch dargestellt, ist aber wichtiger bei multivariaten Zeitreihen als im univariaten Fall. C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

13 2.3 Kausalität und Invertierbarkeit Beispiel: Die MA( )-Darstellung eines ARMA-Prozesses lässt sich berechnen aus der Identität ψ(z) = χ(z)θ(z) wobei χ(z) = 1/φ(z) (Potenzreihenentwicklung). Betrachte bspw. den ARMA(1,1)-Prozess y t φy t 1 = ɛ t + θɛ t 1, dann gilt y t = χ(l)θ(l)ɛ t = ψ(l)ɛ t = (1 + φl + φ 2 L )(1 + θl)ɛ t Dies liefert ψ 0 = 1 und ψ j = (φ + θ)φ j 1, also ist y t = ɛ t + (φ + θ) φ j 1 ɛ t j j=1 Beachte: ψ j <. C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

14 2.3 Kausalität und Invertierbarkeit Definition 2.7. (Invertierbarkeit) Ein ARMA-Prozess φ(l)y t = θ(l)ɛ t heisst invertierbar bzgl. {ɛ t }, falls eine Folge {π j } existiert mit π j <, so dass ɛ t = π j y t j. Aber wie erkennt man direkt an den Koeffizienten, ob ein Prozess invertierbar ist, und wie bestimmen sich die π j? Satz 2.8. Ein ARMA-Prozess φ(l)y t = θ(l)ɛ t, dessen Polynome keine gemeinsamen Nullstellen haben, ist invertierbar bzgl. {ɛ t } genau dann wenn θ(z) 0 für alle z 1. Weiter gilt π(z) = φ(z) θ(z) Beispiel: MA(1) Die Prozesse y t = ɛ t + 0.5ɛ t 1 und y t = ɛ t + 2ɛ t 1 sind beide stationär, aber nur der erste ist invertierbar mit AR(1)-Darstellung ɛ t = ( 0.5)j y t j. C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

15 2.3 Kausalität und Invertierbarkeit Bem.: der Idealfall ist demnach φ(z)θ(z) 0 für z 1. Dann gibt es beide Darstellungen y t = ψ j ɛ t j und ɛ t = π j y t j. Man kann diese Situation ggf. durch Wechsel des Weissen Rauschens erreichen. Satz 2.9. Jeder q-korrelierte Prozess (d.h. die ACF bricht nach Lag q ab) ist ein MA(q)- Prozess. C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

16 2.4 Berechnung der Autokovarianzfunktion Es gibt mehrere Verfahren zur Berechnung der ACF: Methode 1: Bestimme die MA( )-Darstellung und daraus mit der allg. Form der ACF für solche Prozesse die gesuchte ACF. Im ARMA(1,1)-Beispiel von oben ergibt sich γ(0) = σ 2 ψ 2 j = σ 2 [ 1 + (θ + φ) 2 φ 2j ] γ(1) = σ 2 ψ j+1 ψ j = σ [θ 2 + φ + (θ + φ) 2 φ γ(h) = φ h 1 γ(1), h 2 ] φ 2j C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

17 2.4 Berechnung der Autokovarianzfunktion Methode 2: Löse analytisch die Gleichungen γ(h) φ 1 γ(h 1)... φ p γ(h p) = σ 2 θ h+j ψ j, h < max{p, q + 1} γ(h) φ 1 γ(h 1)... φ p γ(h p) = 0, h max{p, q + 1} Die zweite Gleichung ist eine homogene lineare Differenzengleichung p-ter Ordnung (mit konstanten Koeffizienten). Dafür gibt es allgemeine Lösungsmethoden ( Mathe 2!). Falls alle Nullstellen z 1,..., z p des AR-Polynoms verschieden sind, gilt γ(h) = c 1 z1 h c p zp h Die Konstanten c 1,..., c p werden aus den Anfangswerten (Lösungen des 1. Gleichungssystems) bestimmt. Beispiele: (a) AR(1) (b) ARMA(1,1) C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

18 2.4 Berechnung der Autokovarianzfunktion Methode 3: gleicher Ansatz wie Methode 2, aber umgekehrte Reihenfolge Löse zuerst Gleichungssystem (1. Gleichung), dann Rekursion mit 2. Gleichung. Diese Methode ist gut zur Automatisierung geeignet. Beispiele: (a) AR(1) (b) ARMA(1,1) R-Tipp: die Funktion ARMAacf() berechnet die theoretische ACF eines ARMA-Prozesses für vorgegebene Parameter (nach Methode 3). Bsp.: ARMA(1,1) mit φ = 0.8 und θ = 0.2 ergibt sich über R> plot(0:10, ARMAacf(ar = 0.8, ma = 0.2, lag.max = 10), type = "h", + ylim = c(-1, 1), ylab = "ACF") R> abline(h = 0, col = "grey") C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

19 2.5 Prognosen in ARMA-Modellen Es gibt zwei Typen von Prognosen in Zeitreihenmodellen: Prognosen basierend auf unendlicher Vergangenheit (einfachere Formeln) Prognosen basierend auf endlicher Vergangenheit (realistischer) Wir behandeln nur den einfacheren Fall einer unendlichen Vergangenheit, d.h. die zur Verfügung stehende Information sei I t := {y t, y t 1, y t 2,...}. Terminologie: gesucht ist ỹ t+l t für l > 0 ( l-schritt-prognose zum Zeitpunkt t ). l heisst auch Prognosehorizont Qualität einer Prognose ỹ t+l t wird gemessen durch mittleren quadratischen Fehler (MSE) MSE(ỹ t+l t ) := E(ỹ t+l t y t+l ) 2 = E(y t+l E t y t+l ) 2 + E[ỹ t+l t E t (y t+l )] 2 C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

20 2.5 Prognosen in ARMA-Modellen Prognose ỹ t+l t ist wenn {ɛ t } u.i.v. damit optimal bzgl. MSE, falls ỹ t+l t = E t (y t+l ) =: ŷ t+l t Damit entsteht die optimale Prognose im ARMA-Modell durch Fortschreiben der Modellgleichung: ŷ t+l t = φ 1 ŷ t+l 1 t +φ 2 ŷ t+l 2 t +...+φ p ŷ t+l p t +ˆɛ t+l t +θ 1ˆɛ t+l 1 t +...+θ qˆɛ t+l q t ŷ t+h t = { ŷ t+h t, falls h > 0, y t+h, falls h 0, ˆɛ t+h t = { 0, falls h > 0, ɛ t+h, falls h 0 Beispiele: (a) AR(1): ŷ t+l t = φ l y t E(y t ) = 0 ( mean reversion ) bei φ < 1 (b) MA(1): ŷ t+1 t = θɛ t, und ŷ t+l t = 0 für l 2 C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

21 2.5 Prognosen in ARMA-Modellen Wie misst man die Genauigkeit einer Prognose? Prognosefehler ist y t+l ŷ t+l t. Varianz dieses Fehlers ist E t (y t+l ŷ t+l t ) 2 = Var t (y t+l ŷ t+l t ) Für alles weitere ist die MA( )-Darstellung nützlich: Es ist y t+l = ψ jɛ t+l j, also und damit Beispiele: y t+l ŷ t+l t = l 1 ψ j ɛ t+l j l 1 E t (y t+l ŷ t+l t ) 2 = σ 2 (a) AR(1) ergibt bei l Schritten: σ 2 l 1 φ2 j (b) MA(1) ergibt bei l Schritten: σ 2 bei l = 1, σ 2 (1 + θ 2 ) ab l = 2 (!) ψ 2 j C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

22 2.5 Prognosen in ARMA-Modellen Interpretation: optimale Prognosen sind unverzerrt optimale 1-Schritt-Prognosen sind Weisses Rauschen optimale l-schritt-prognosen sind MA(h), h l 1 für die Varianz des Prognosefehlers gilt mit wachsendem Prognosehorizont l l 1 Var(y t+l ŷ t+l t ) = σ 2 ψj 2 σ 2 ψj 2 = Var(y t ) C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

23 2.6 Beste lineare Prognosen und die Wold-Darstellung Bedingter Erwartungswert liefert beste Prognose (bzgl MSE). In der Regel nichtlinear und nicht einfach zu berechnen. Alternative: suche nur beste lineare Prognose, d.h. löse für das Problem ˆP T y T +l = a 0 + a 1 y T + + a T y 1 E(y T +l ˆP T y T +l ) 2 min! (geht auch für unendliche Vergangenheit). ARMA-Prozesse sind lineare Modelle für den (bedingten) Erwartungswert, insofern sind beste lineare und beste Prognose identisch. C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

24 2.6 Beste lineare Prognosen und die Wold-Darstellung Satz (H. Wold, 1938) Jeder schwach stationäre Prozess {y t } mit Ey t = 0 lässt sich in der Form y t = ψ j u t j + v t, darstellen, es gilt dabei ψ 0 = 1, j ψ2 j < u t W R(0, σu) 2 mit u t = y t ˆP t 1 y t und σu 2 = E(y t ˆP t 1 y t ) 2. E(u t v s ) = 0 für alle s, t der Prozess {v t } ist rein deterministisch Nenne die u t die Innovationen. C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

25 2.6 Beste lineare Prognosen und die Wold-Darstellung Bem.: die u t definieren ein schwaches Weisses Rauschen (Unkorreliertheit, keine Unabhängigkeit!) die u t sind die 1-Schritt-Prognosefehler der besten linearen Prognose rein deterministisch bedeutet, dass der Prozess perfekt prognostizierbar ist. Bsp.: Für den Prozess y t = A cos(ωt) + B sin(ωt), ω (0, π), mit E(A) = E(B) = 0 = Cov(A, B) gilt y t = (2 cos ω)y t 1 y t 2 = ˆP t 1 y t also ist hier y t ˆP t 1 y t = 0 und damit perfekte Prognose möglich! Dieser Fall ist für eine allgemeine Prognosetheorie wichtig, tritt aber bei ARMA-Prozessen nicht auf. ARMA-Prozesse sind rein indeterministisch. C. Kleiber: Analyse ökonomischer Zeitreihen Kap U Basel, FS 2009

3. ARMA-Modelle. Jetzt: Wichtigste Modellklasse für stationäre Prozesse

3. ARMA-Modelle. Jetzt: Wichtigste Modellklasse für stationäre Prozesse 3. ARMA-Modelle Jetzt: Wichtigste Modellklasse für stationäre Prozesse Definition 3.1: (ARMA(p, q)-prozess) Gegeben sei das Weiße Rauschen {ɛ t } t Z WR(0, σ 2 ). Der Prozess {X t } t Z heißt AutoRegressiver-Moving-Average-Prozess

Mehr

Stochastische Prozesse und Box-Jenkins Technik

Stochastische Prozesse und Box-Jenkins Technik Stochastische Prozesse und Box-Jenkins Technik Stichwörter: AR-, MA- und ARMA-Prozeß weißes Rauschen random walk Autokorrelations-Funktion Stationarität Invertierbarkeit Korrelogramm Box-Jenkins Technik

Mehr

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2. Seminar Finanzmathematik - Begrüßung - Motivation - Inhaltsangabe 3. Zusammen - fassung Zeitreihenanalyse Andreas Dienst SS 2006 Zeitreihen: Definition und Motivation - Begrüßung - Motivation - Inhaltsangabe

Mehr

7. Stochastische Prozesse und Zeitreihenmodelle

7. Stochastische Prozesse und Zeitreihenmodelle 7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

2 Stationarität. Strikte Stationarität

2 Stationarität. Strikte Stationarität 2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift

Mehr

Zeitreihenanalyse. 1 Einleitung. 2 Autoregressive Prozesse, lineare Differenzengleichungen

Zeitreihenanalyse. 1 Einleitung. 2 Autoregressive Prozesse, lineare Differenzengleichungen Zeitreihenanalyse Enno MAMMEN Department of Economics, University of Mannheim L7, 3-5, 68131 Mannheim, Germany E mail: emammen@rumms.uni-mannheim.de February 22, 2006 1 Einleitung Klassisches Komponentenmodell,

Mehr

Kompaktskript zur Vorlesung Prognoseverfahren

Kompaktskript zur Vorlesung Prognoseverfahren Kompaktskript zur Vorlesung Prognoseverfahren Friedrich-Schiller-Universität Jena Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Wirtschafts- und Sozialstatistik Prof. Dr. P. Kischka Sommersemester

Mehr

Was sind Zeitreihen? Software. Literatur. Überblick. Beispiele. Grundbegriffe

Was sind Zeitreihen? Software. Literatur. Überblick. Beispiele. Grundbegriffe Kap. 1: Einführung Was sind Zeitreihen? Software Literatur Überblick Beispiele Grundbegriffe 1.1 Was sind Zeitreihen? Datentypen in der Ökonometrie: Querschnittsdaten Beispiel: Daten für 5 000 Haushalte

Mehr

Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland

Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland Klaus Neusser 2. Dezember 2010 Zusammenfassung Ziel dieses Beitrags ist es, den fortgeschrittenen Studierenden eine Einführung

Mehr

Das magische Quadrat für stochastische Prozesse

Das magische Quadrat für stochastische Prozesse . Geodätische Woche Das magische Quadrat für stochastische Prozesse 1 Institut für Geodäsie und Geoinformation Professur für Theoretische Geodäsie - Universität Bonn Ina Krasbutter, Boris Kargoll, Wolf-Dieter

Mehr

Theoretische Physik II Quantenmechanik

Theoretische Physik II Quantenmechanik Michael Czopnik Bielefeld, 11. Juli 014 Fakultät für Physik, Universität Bielefeld Theoretische Physik II Quantenmechanik Sommersemester 014 Lösung zur Probeklausur Aufgabe 1: (a Geben Sie die zeitabhängige

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Vergleich von Entscheidungsträgern bzgl. ihrer Risikoaversion:

Vergleich von Entscheidungsträgern bzgl. ihrer Risikoaversion: Ist das Arrow-Pratt-Maß der absoluten Risikoaversion bekannt, so lässt sich daraus die Nutzenfunktion bestimmen: Mithilfe der Substitution y := U (w) dy = U (w)dw gilt: und daher U (w) U (w) dw = A a (w)dw

Mehr

Modul: Zeitreihenanalyse und Anwendungen in der empirischen Kapitalmarktforschung. Leseprobe

Modul: Zeitreihenanalyse und Anwendungen in der empirischen Kapitalmarktforschung. Leseprobe Prof. Dr. Hermann Singer Modul: 32681 Zeitreihenanalyse und Anwendungen in der empirischen Kapitalmarktforschung Kurs: 00889 Version vom 10/2004 Überarbeitet am 10/2015 Leseprobe Inhaltsverzeichnis 1 Überblick

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Folien zur Vorlesung. Zeitreihenanalyse (Time Series Analysis)

Folien zur Vorlesung. Zeitreihenanalyse (Time Series Analysis) Folien zur Vorlesung Zeitreihenanalyse (Time Series Analysis) Wintersemester 2014/2015 Mittwoch 14.00 15.30 Uhr Hörsaal: J 498 Prof. Dr. Bernd Wilfling Westfälische Wilhelms-Universität Münster Inhalt

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel

Mehr

5 Multivariate stationäre Modelle

5 Multivariate stationäre Modelle 5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als

Mehr

Lineare Regression (Ein bisschen) Theorie

Lineare Regression (Ein bisschen) Theorie Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell

Mehr

6. Statistische Schätzung von ARIMA Modellen

6. Statistische Schätzung von ARIMA Modellen 6. Statistische Schätzung von ARIMA Modellen Vorschau: ARIMA Modelle Modellidentifikation verschiedene Schätzverfahren Modelldiagnostik Fallstudien Zeitreihenanalyse 1 6.1 ARIMA Modelle Bisher: ARMA(p,q)-Modelle:

Mehr

14 Lineare Differenzengleichungen

14 Lineare Differenzengleichungen 308 14 Lineare Differenzengleichungen 14.1 Definitionen In Abschnitt 6.3 haben wir bereits eine Differenzengleichung kennengelernt, nämlich die Gleichung K n+1 = K n q m + R, die die Kapitalveränderung

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Bedingte nichtlineare Regression Worum geht es in diesem Modul? Beispiel: Das Verhältnismodell für geometrisch-optische Täuschungen III

Bedingte nichtlineare Regression Worum geht es in diesem Modul? Beispiel: Das Verhältnismodell für geometrisch-optische Täuschungen III Bedingte nichtlineare Regression 1 Worum geht es in diesem Modul? Beispiel: Das Verhältnismodell für geometrisch-optische Täuschungen III Bedingte lineare Quasi-Regression Eigenschaften des Residuums Parametrisierungen

Mehr

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung M.Sc. Brice Hakwa hakwa@uni-wuppertal.de Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung - Zusammenfassung zum Thema: Berechnung von Value-at-Risk

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Lineare Differenzengleichungen und Polynome. Franz Pauer

Lineare Differenzengleichungen und Polynome. Franz Pauer Lineare Differenzengleichungen und Polynome Franz Pauer Institut für Mathematik, Universität Innsbruck, Technikerstr. 13/7, A-600 Innsbruck, Österreich. Franz.Pauer@uibk.ac.at Vortrag beim ÖMG-LehrerInnenfortbildungstag

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR

4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR Im Allgemeinen wird sich das Verhalten einer ZR über die Zeit ändern, z.b. Trend, saisonales Verhalten, sich verändernde Variabilität. Eine ZR wird als stationär bezeichnet, wenn sich ihr Verhalten über

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

9. Primitivwurzeln. O. Forster: Einführung in die Zahlentheorie

9. Primitivwurzeln. O. Forster: Einführung in die Zahlentheorie 9. Primitivwurzeln 9.1. Satz. Sei G eine zyklische Gruppe der Ordnung m und g G ein erzeugendes Element. Das Element a := g k, k Z, ist genau dann ein erzeugendes Element von G, wenn k zu m teilerfremd

Mehr

Lineare Differenzengleichungen

Lineare Differenzengleichungen Lineare Differenzengleichungen Die Fibonacci-Zahlen F n sind definiert durch F 0 = 0 F 1 = 1 F n = F n 1 +F n 2 für n >= 2 Die letzte Zeile ist ein Beispiel für eine homogene lineare Differenzengleichung

Mehr

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. 12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X

Mehr

Dynamische Systeme und Zeitreihenanalyse // Beschreiben von Zeitreihen 9 p.2/??

Dynamische Systeme und Zeitreihenanalyse // Beschreiben von Zeitreihen 9 p.2/?? Dynamische Systeme und Zeitreihenanalyse Beschreiben von Zeitreihen Kapitel 9 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Beschreiben von Zeitreihen 9 p.0/??

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Stationäre Zeitreihenmodelle

Stationäre Zeitreihenmodelle Exemplarisch für parametrische Zeitreihenmodelle werden in diesem Kapitel autoregressive Prozesse und ARCH-Prozesse vorgestellt. Der autoregressive Prozess ist einer der einfachsten stationären Prozesse.

Mehr

Übungen zur Theoretischen Physik 1 Lösungen zum Mathe-Test

Übungen zur Theoretischen Physik 1 Lösungen zum Mathe-Test Prof. C. Greiner, Dr. H. van Hees Wintersemester 2012/2013 Übungen zur Theoretischen Physik 1 Lösungen zum Mathe-Test Aufgabe 1: Bruchrechnung Lösen Sie die folgenden Gleichungen nach x auf (a) x x 2 1

Mehr

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Kointegration. Kapitel 19. Angewandte Ökonometrie / Ökonometrie III Michael Hauser

Kointegration. Kapitel 19. Angewandte Ökonometrie / Ökonometrie III Michael Hauser 1 / 28 Kointegration Kapitel 19 Angewandte Ökonometrie / Ökonometrie III Michael Hauser 2 / 28 Inhalt I(d), Trends, Beispiele Spurious Regression Kointegration, common trends Fehlerkorrektur-Modell Test

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

VAR- und VEC-Modelle. Kapitel 22. Angewandte Ökonometrie / Ökonometrie III Michael Hauser

VAR- und VEC-Modelle. Kapitel 22. Angewandte Ökonometrie / Ökonometrie III Michael Hauser 1 / 42 VAR- und VEC-Modelle Kapitel 22 Angewandte Ökonometrie / Ökonometrie III Michael Hauser 2 / 42 Inhalt VAR-Modelle, vector autoregressions VARX in Standardform und Strukturform VAR: Schätzung in

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt

Mehr

5. Zeitreihenanalyse und Prognoseverfahren

5. Zeitreihenanalyse und Prognoseverfahren 5. Zeitreihenanalyse und Prognoseverfahren Stichwörter: Trend, Saisonalität, Noise, additives Modell, multiplikatives Modell, Trendfunktion, Autokorrelationsfunktion, Korrelogramm, Prognosehorizont, Prognoseintervall,

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.

Mehr

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag studienbegleitende Klausur Finanzmathematik I Aufgabe (7 Punkte) Vorgelegt sei ein Wahrscheinlichkeitsraum (Ω, F, P) und

Mehr

Finanzzeitreihen Teil 2

Finanzzeitreihen Teil 2 Teil 2 Mathematisches Institut der Universität zu Köln Wintersemester 09/10 Betreuung: Prof. Schmidli, J. Eisenberg Literatur : Quantitative Risk Management Wu Jui Sun Contents 1 Wiederholung 2 1.1 Value

Mehr

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen .1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende

Mehr

10 ARIMA-Modelle für nicht-stationäre Zeitreihen

10 ARIMA-Modelle für nicht-stationäre Zeitreihen 10 ARIMA-Modelle für nicht-stationäre Zeitreihen In diesem Abschnitt untersuchen wir einige praktische Aspekte bei der Wahl eines geeigneten Modells für eine beobachtete Zeitreihe X 1,...,X n. Falls die

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

10 Untermannigfaltigkeiten

10 Untermannigfaltigkeiten 10. Untermannigfaltigkeiten 1 10 Untermannigfaltigkeiten Definition. Eine Menge M R n heißt k-dimensionale Untermannigfaltigkeit des R n, 1 k n, falls es zu jedem a M eine offene Umgebung U R n von a und

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 23 Die Gradformel Satz 1. Seien K L und L M endliche Körperweiterungen. Dann ist auch K M eine endliche Körpererweiterung und

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Formelsammlung Zeitreihenanalyse in den Wirtschaftswissenschaften

Formelsammlung Zeitreihenanalyse in den Wirtschaftswissenschaften Formelsammlung Zeitreihenanalyse in den Wirtschaftswissenschaften Sommersemester 2017 Prof Dr Hans-Jörg Starkloff & Dr Andreas Wünsche Stand: 21 Juli 2017 1 1 Einleitung 11 Elemente der deskriptiven Zeitreihenanalyse

Mehr

Thema:ARMA-Prozesse. Johannes Blank 8. Juni 2010

Thema:ARMA-Prozesse. Johannes Blank 8. Juni 2010 Thema:ARMA-Prozesse Johannes Blank 8. Juni 2010 Abstract Zeitreihen, also stoch. Prozesse mit Indexmenge Z, spielen in der Ökonometrie (der mathematisch formalisierte Teil der Wirtschaftswissenschaften)

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) WS 2011/12 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ws/ds/uebung/ 18. Januar 2012 ZÜ DS ZÜ XII

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

Regressionsmodelle mit Anwendungen in der Versicherungs- & Finanzwirtschaft SS 2015

Regressionsmodelle mit Anwendungen in der Versicherungs- & Finanzwirtschaft SS 2015 Regressionsmodelle mit Anwendungen in der Versicherungs- & Finanzwirtschaft SS 2015 Univ.-Prof. Dr. Michael Merz Universität Hamburg Übungsaufgaben Übungsaufgaben c 2015 M. Merz Universität Hamburg Regressionsmodelle

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Übungen zur Vorlesung Funktionentheorie Sommersemester Musterlösung zu Blatt 10. f(z) f(z) dz

Übungen zur Vorlesung Funktionentheorie Sommersemester Musterlösung zu Blatt 10. f(z) f(z) dz UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6. MATHEMATIK Prof. Dr. Roland Speicher M.Sc. Tobias Mai Übungen zur Vorlesung Funktionentheorie Sommersemester 0 Musterlösung zu Blatt 0 Aufgabe. Berechnen Sie

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

8.1 Begriffsbestimmung

8.1 Begriffsbestimmung 8 Gewöhnliche Differentialgleichungen 8 Gewöhnliche Differentialgleichungen 8.1 Begriffsbestimmung Wir betrachten nur Differentialgleichungen für Funktionen einer (reellen) Variablen. Definition: Für eine

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

Zeitreihenökonometrie

Zeitreihenökonometrie Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

ein stationärer Prozeß (AR(0)). Etwas allgemeiner nimmt man an, daß die d-te Differenz ARMA(p, q) ist, also ist die Differenz

ein stationärer Prozeß (AR(0)). Etwas allgemeiner nimmt man an, daß die d-te Differenz ARMA(p, q) ist, also ist die Differenz Kapitel 4 Nichtstationäre Zeitreihen 4.1 ARIMA-Modelle Die bisher diskutierten ARMA-Modelle sind bei bei geeigneter Wahl der Parameter stationär, d.h. wenn alle Wurzeln der Gleichung φ(λ 1 )=0betragsmäßig

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Kapitel 6: Das quadratische Reziprozitätsgesetz

Kapitel 6: Das quadratische Reziprozitätsgesetz Kapitel 6: Das quadratische Reziprozitätsgesetz Ziel dieses Kapitels: die Untersuchung der Lösbarkeit der Kongruenzgleichung X also die Frage, ob die ganze Zahl Z eine Quadratwurzel modulo P besitzt. Im

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29

Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29 Dynamische Systeme und Zeitreihenanalyse Komplexe Zahlen Kapitel 3 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.0/29 Motivation Für die

Mehr

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen Dr. Thomas Zehrt Folgen und Reihen Literatur Referenz: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band, 7. Auflage,

Mehr

Uebungsserie 1.1 Harmonische Signale und Ihre Darstellung

Uebungsserie 1.1 Harmonische Signale und Ihre Darstellung 28. September 2016 Elektrizitätslehre 3 Martin Weisenhorn Uebungsserie 1.1 Harmonische Signale und Ihre Darstellung Aufgabe 1. Die nachfolgende Grafik stellt das Oszillogramm zweier sinusförmiger Spannungen

Mehr

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

1 Einführung Ökonometrie... 1

1 Einführung Ökonometrie... 1 Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...

Mehr