3. ARMA-Modelle. Jetzt: Wichtigste Modellklasse für stationäre Prozesse

Größe: px
Ab Seite anzeigen:

Download "3. ARMA-Modelle. Jetzt: Wichtigste Modellklasse für stationäre Prozesse"

Transkript

1 3. ARMA-Modelle Jetzt: Wichtigste Modellklasse für stationäre Prozesse Definition 3.1: (ARMA(p, q)-prozess) Gegeben sei das Weiße Rauschen {ɛ t } t Z WR(0, σ 2 ). Der Prozess {X t } t Z heißt AutoRegressiver-Moving-Average-Prozess der Ordnung (p, q) (in Zeichen: ARMA(p, q)-prozess), falls er die stochastische Differenzengleichung X t = c + φ 1 X t φ p X t p + ɛ t + θ 1 ɛ t θ q ɛ t q mit c, φ 1,..., φ p, θ 1,..., θ q R, φ p, θ q 0 erfüllt. 41

2 Bedeutung von ARMA-Prozessen: Jeder stationäre Prozess kann beliebig genau durch einen ARMA-Prozess approximiert werden Für jede Autokovarianzfunktion γ mit lim h γ(h) = 0 und jede natürliche Zahl k N existiert ein ARMA-Prozess {X t } t Z mit der Eigenschaft γ X (h) = γ(h) für alle h = 0, 1,..., k (Approximierbarkeit beliebiger Autokovarianzfunktionen durch einen ARMA-Prozess) 42

3 3.1 Der Lag-Operator Jetzt: Instrument zur Analyse von ARMA(p, q)-prozessen Definition 3.2: (Lag-Operator) Es sei {X t } t Z ein beliebiger stochastischer Prozess. Der Lag- Operator L verschiebt den Zeitindex des Prozesses um eine Periode in die Vergangenheit: L{X t } {X t 1 }. 43

4 Bemerkungen und Rechenregeln: (I) Meist schreibt man anstelle von L{X t } = {X t 1 } vereinfachend LX t = X t 1 L angewendet auf den konstanten Prozess X t = c für alle t Z mit c R ergibt LX t = Lc = c Die n-fache Anwendung von L ergibt L }.{{.. L} X t = L n X t = X t n n-mal 44

5 Bemerkungen und Rechenregeln: (II) Die Umkehrung des Lag-Operators ist der Lead-Operator L 1, der den Prozess um 1 Periode in die Zukunft verschiebt L 1 X t = X t+1 Wegen L 1 LX t = X t setzt man L 0 X t 1X t = X t (hier bezeichnet 1 den Identitätsoperator) Für beliebige ganze Zahlen m, n Z gilt L m L n X t = L m+n X t = X t m n 45

6 Bemerkungen und Rechenregeln: (III) Für beliebige reelle Zahlen a, b R, beliebige ganze Zahlen m, n Z sowie für beliebige stochastische Prozesse {X t }, {Y t } gilt (al m + bl n ) (X t + Y t ) = ax t m + bx t n + ay t m + by t n Polynome im Lag-Operator L Beispiele für Polynome in L: (I) A(L) = a 0 + a 1 L + a 2 L a p L p (mit den Konstanten a 0, a 1,..., a p R) 46

7 Beispiele für Polynome in L: (II) A(L) = 1 0.5L sowie B(L) = 1 + 4L 2 Hieraus ergibt sich z.b. C(L) = A(L)B(L) = (1 0.5L)(1 + 4L 2 ) = 1 0.5L + 4L 2 2L 3 (es gelten die üblichen Rechenregeln für Polynome) 47

8 Beispiele für Polynome in L: (III) Mit den beiden Polynomen Φ(L) = 1 φ 1 L... φ p L p Θ(L) = 1 + θ 1 L θ q L q lässt sich der ARMA(p, q)-prozess aus Definition 3.1 (vgl. Folie 41) darstellen als Φ(L)X t = c + Θ(L)ɛ t Zur Behandlung verschiedener Sachverhalte werden die Lag- Polynome Φ und Θ häufig als Polynome im komplexwertigen Argument z C betrachtet (d.h. als Φ(z) bzw. Θ(z)) Dieser mathematische Kunstgriff wird als z-transformation bezeichnet 48

9 3.2 Spezial- und Grenzfälle Jetzt: Zwei spezielle ARMA(p, q)-prozesse und ein Grenzprozess Der MA(q)-Prozess Ausgangssituation: Betrachte den ARMA(0, q)-prozess X t = c + ɛ t + θ 1 ɛ t θ q ɛ t q mit {ɛ t } t Z WR(0, σ 2 ) 49

10 Bemerkungen: Dieser Prozess heißt Moving-Average-Prozess der Ordnung q (in Zeichen: MA(q)-Prozess) Mit dem Lag-Polynom Θ(L) = 1 + θ 1 L θ q L q lässt sich der MA(q)-Prozess schreiben als X t = c + Θ(L)ɛ t Oft wird die Konstante c = 0 gewählt: X t = ɛ t + θ 1 ɛ t θ q ɛ t q = Θ(L)ɛ t Frage: Ist der MA(q)-Prozess (schwach) stationär? 50

11 Dazu: Berechnung von E(X t ), V ar(x t ), Cov(X t+h, X t ) Für den Erwartungswert gilt: E[X t ] = E [ ] c + ɛ t + θ 1 ɛ t θ q ɛ t q = E(c) + E(ɛ t ) + θ 1 E(ɛ t 1 ) θ q E(ɛ t q ) = c θ θ q 0 = c 51

12 Mit θ 0 1 gilt für die Kovarianz Cov(X t+h, X t ): Cov(X t+h, X t ) = (Herleitung: Übung) σ 2 q h i=0 q h σ 2 i=0 0, für h > q θ i θ i+h, für 0 h q θ i θ i+ h, für q h < 0 0, für h < q 52

13 Offensichtlich: Der Erwartungswert und sämtliche Kovarianzen sind unabhängig von t Jeder MA(q)-Prozess ist (schwach) stationär Satz 3.3: (Stationarität und Momente des MA(q)-Prozesses) Es sei {X t } t Z ein beliebiger MA(q)-Prozess der Form X t = c + θ 0 ɛ t + θ 1 ɛ t θ q ɛ t q mit c, θ 1, θ 2,..., θ q R, θ 0 = 1, θ q 0 und {ɛ t } t Z WR(0, σ 2 ). Es gelten die folgenden Aussagen für alle t Z: 53

14 1. {X t } t Z ist (schwach) stationär. 2. E(X t ) = c. 3. V ar(x t ) = σ 2 ( 1 + θ θ θ2 q ) = σ 2 q i=0 θ 2 i. 4. Die Autokovarianzfunktion lautet γ X (h) = σ 2 q h i=0 0, für h > q θ i θ i+h, für 0 h q. γ X ( h), für h < 0 54

15 1. Die Autokorrelationsfunktion lautet ρ X (h) = γ X(h) γ X (0) = q h i=0 θ i θ i+h 0, für h > q q / θi 2 i=0, für 0 h q. ρ X ( h), für h < 0 Bemerkung: Bei einem MA(q)-Prozess verschwinden die Kovarianzen bzw. Korrelationen zwischen X t und X s, falls t und s mehr als q Perioden auseinanderliegen (Prozess mit kurzem Gedächtnis) 55

16 Beispiel: (MA(1)-Prozess) X t = ɛ t 0.8ɛ t 1 mit {ɛ t } GWR(0, 1) E(X t ) = 0, V ar(x t ) = γ X (0) = 1 [1 + ( 0.8) 2] = 1.64 ρ X (h) = 0, für h > , für h = 1 1, für h = 0 ρ X ( h), für h < 0 56

17 Trajektorie und ACF des MA(1)-Prozesses X t = ɛ t 0.8ɛ t 1 mit ɛ t GWR(0, 1) für t = 0, 1,...,

18 4 Trajektorie eines MA(1)-Prozesses t Theoretische und geschätzte ACF'en eines MA(1)-Prozesses h

19 Abschließend: Charakterisierungseigenschaft des MA(q)-Prozesses 59

20 Satz 3.4: (MA(q)-Charakterisierung) Es sei {X t } t Z ein beliebiger (schwach) stationärer Prozess mit E(X t ) = 0 für alle t Z und Autokovarianzfunktion γ X (h) = 0, für h > q γ X (q) 0 γ X (h) beliebig, für h = q, für 0 h < q γ X ( h), für h < 0 Dann ist {X t } t Z ein MA(q)-Prozess, d.h. es gibt einen Prozess {ɛ t } t Z WR(0, σ 2 ) sowie Koeffizienten θ 1,..., θ q R, so dass X t = ɛ t + θ 1 ɛ t θ q ɛ t q.. 60

21 3.2.2 Der MA( )-Prozess Ausgangssituation: (I) Betrachte den MA(q)-Prozess mit {ɛ t } t Z WR(0, σ 2 ) X t = c + ɛ t + θ 1 ɛ t θ q ɛ t q Mit θ 0 1 lässt sich der Prozess schreiben als X t = c + q j=0 θ j ɛ t j 61

22 Ausgangssituation: (II) Betrachte nun den Grenzprozess für q : X t = c + j=0 θ j ɛ t j = c + θ 0 ɛ t + θ 1 ɛ t 1 + θ 2 ɛ t Dieser Prozess heißt Moving-Average-Prozess unendlicher Ordnung (in Zeichen: MA( )-Prozess) Es gilt: Ein MA( )-Prozess ist (schwach) stationär, falls j=0 θ 2 j < (quadratisch summierbare Koeffizientenfolge) 62

23 Bemerkungen: Ein stärkere Bedingung als die quadratisch summierbare Koeffizientenfolge ist die absolute Summierbarkeit der Koeffizientenfolge: j=0 θ j < Für die Koeffizientenfolge {θ j } j N0 gilt also: Falls j=0 θ j <, so ist auch j=0 θ 2 j < und somit ist der MA( )-Prozess (schwach) stationär Aus der quadratischen Summierbarkeit der Koeffizientenfolge folgt nicht die absolute Summierbarkeit 63

24 Satz 3.5: (Momente eines stationären MA( )-Prozesses) Es sei {X t } t Z ein stationärer MA( )-Prozess mit absolut summierbarer Koeffizientenfolge. Dann gelten die folgenden Aussagen für alle t Z: 1. E(X t ) = c. 2. V ar(x t ) = γ X (0) = σ 2 ( 1 + θ θ ) = σ 2 j=0 θ 2 j. 3. Die Autokovarianzfunktion für h > 0 lautet γ X (h) = σ 2 j=0 θ j θ j+h 64

25 4. Die Autokorrelationsfunktion für h 0 lautet ρ X (h) = γ X(h) γ X (0) = θ j θ j+h j=0 θj 2 j=0 5. Wegen der absoluten Summierbarkeit der Koeffizientenfolge {θ j } j N0 ist auch die Folge der Autokovarianzen {γ X (h)} h N0 absolut summierbar: h=0 γ X (h) <. 65

26 3.2.3 Der AR(p)- und der AR(1)-Prozess Ausgangssituation: Betrachte den ARMA(p, 0)-Prozess mit {ɛ t } t Z WR(0, σ 2 ) X t = c + φ 1 X t φ p X t p + ɛ t 66

27 Bemerkungen: Der Prozess heißt autoregressiver Prozess der Ordnung p (in Zeichen: AR(p)-Prozess) Mit dem Lag-Polynom Φ(L) = 1 φ 1 L... φ p L p lässt sich der AR(p)-Prozess schreiben als Φ(L)X t = c + ɛ t Jetzt: Wir betrachten den AR(1)-Prozess X t = c + φx t 1 + ɛ t (mit φ 0) Wann ist der AR(1)-Prozess (schwach) stationär? 67

28 Bemerkungen: Der AR(1)-Prozess {X t } t Z genügt der stochastischen Differenzengleichung 1. Ordnung X t = c + φx t 1 + ɛ t Man kann zeigen, dass (a) für φ 1 kein (schwach) stationärer Prozess {X t } t Z existiert, der die Differenzengleichung erfüllt (b) für φ < 1 ein eindeutiger (schwach) stationärer Prozess {X t } t Z existiert, der die Differenzengleichung erfüllt 68

29 Jetzt: Charakterisierung des AR(1)-Prozesses bei φ < 1 Es gilt für die Darstellung von {X t } t Z : X t = c + φx t 1 + ɛ t = (c + ɛ t ) + φx t 1 = (c + ɛ t ) + φ(c + φx t 2 + ɛ t 1 ) = (c + ɛ t ) + φ(c + ɛ t 1 ) + φ 2 X t 2 = (c + ɛ t ) + φ(c + ɛ t 1 ) + φ 2 (c + φx t 3 + ɛ t 2 ) = (c + ɛ t ) + φ(c + ɛ t 1 ) + φ 2 (c + ɛ t 2 ) + φ 3 X t 3 69

30 .. = (c + ɛ t ) + φ(c + ɛ t 1 ) + φ 2 (c + ɛ t 2 ) + φ 3 (c + ɛ t 3 ) +... = c + φc + φ 2 c + φ 3 c ɛ t + φɛ t 1 + φ 2 ɛ t 2 + φ 3 ɛ t = c j=0 φ j + j=0 φ j ɛ t j = c 1 φ + j=0 φ j ɛ t j Wegen φ < 1 gilt j=0 φ j = j=0 φ j = 1 1 φ < 70

31 Zentrales Ergebnis: Bei φ < 1 hat der AR(1)-Prozess {X t } t Z die MA( )-Darstellung X t = c 1 φ + ɛ t + φɛ t 1 + φ 2 ɛ t mit absolut summierbarer Koeffizientenfolge (vgl. Folien 62, 63) θ j = φ j für alle j N 0 71

32 Folgerung: Bei φ < 1 ist der AR(1)-Prozess (schwach) stationär (vgl. Folien 32, 33) X t = c + φx t 1 + ɛ t Der Satz 3.5 auf den Folien 64, 65 ist bei φ < 1 auf den AR(1)-Prozess {X t } t Z anwendbar 72

33 Satz 3.6: (Momente eines stationären AR(1)-Prozesses) Es sei X t = c + φx t 1 + ɛ t mit {ɛ t } t Z WR(0, σ 2 ) ein AR(1)- Prozess mit φ < 1. Dann ist {X t } t Z (schwach) stationär und es gelten die folgenden Aussagen für alle t Z: 1. E(X t ) = c 1 φ. 2. V ar(x t ) = γ X (0) = σ2 1 φ Die Autokovarianzfunktion für h > 0 lautet φ h γ X (h) = σ 2 1 φ 2. 73

34 4. Die Autokorrelationsfunktion für h 0 lautet ρ X (h) = φ h. 5. Wegen der absoluten Summierbarkeit der Koeffizientenfolge {φ j } j N0 ist auch die Folge der Autokovarianzen {γ X (h)} h N0 absolut summierbar und es gilt h=0 γ X (h) = σ 2 (1 φ )(1 φ 2 ) <. (Beweis: Übung) 74

35 Beispiel: (AR(1)-Prozess) X t = 0.8X t 1 + ɛ t mit {ɛ t } GWR(0, 1) E(X t ) = 0/(1 0.8) = 0 V ar(x t ) = γ X (0) = 1/( ) = ρ X (h) = 0.8 h, für h > 0 1, für h = 0 ρ X ( h), für h < 0 75

36 Trajektorie und ACF des AR(1)-Prozesses X t = 0.8X t 1 + ɛ t mit ɛ t GWR(0, 1) für t = 0, 1,...,

37 4 Trajektorie eines AR(1)-Prozesses t Theoretische und geschätzte ACF'en eines AR(1)-Prozesses h

38 3.3 Kausalität und Invertierbarkeit Vorbemerkungen zur Kausalität: Betrachte den Prozess {X t } und das Weiße Rauschen {ɛ t } Fasse {X t } als Zustand und {ɛ t } als Impuls oder Ursache auf Unter welchen Bedingungen kann man den heutigen Zustand X t als Ergebnis vergangener Ursachen ɛ t, ɛ t 1, ɛ t 2,... darstellen? 78

39 Beispiele: Falls {X t } MA(q), so gilt per Definition X t = c + ɛ t + θ 1 ɛ t θ q ɛ t q Falls {X t } AR(1), so gilt mit φ < 1 X t = c 1 φ + φ0 ɛ t + φ 1 ɛ t 1 + φ 2 ɛ t (MA( )-Darstellung eines stationären AR(1)-Prozesses) Frage: Wann hat ein allgemeiner ARMA(p, q)-prozess gemäß Definition 3.1 (vgl. Folie 41) eine MA( )-Darstellung? 79

40 Zunächst: Wir betrachten die Lag-Polynome Φ(L) = 1 φ 1 L... φ p L p Θ(L) = 1 + θ 1 L θ q L q und den ARMA(p, q)-prozess {X t } mit Φ(L)X t = Θ(L)ɛ t, wobei {ɛ t } WR(0, σ 2 ) Die Konstante c aus der Definition 3.1 wird ohne Beschränkung der Allgemeinheit gleich 0 gesetzt 80

41 Definition 3.7: (Kausalität) Ein ARMA(p, q)-prozess {X t } mit Φ(L)X t = Θ(L)ɛ t heißt kausal bezüglich {ɛ t }, falls eine absolut summierbare Koeffizientenfolge {ψ j } j N0 mit j=0 ψ j < existiert, so dass mit ψ 0 = 1. X t = ψ 0 ɛ t + ψ 1 ɛ t 1 + ψ 2 ɛ t = j=0 ψ j ɛ t j Bemerkung: Ein kausaler ARMA(p, q)-prozess hat eine MA( )-Darstellung mit absolut summierbarer Koeffizientenfolge, der Prozess ist also (schwach) stationär 81

42 Frage: Unter welchen Bedingungen lässt sich ein ARMA(p, q)-prozess als MA( )-Prozess mit absolut summierbarer Koeffizientenfolge darstellen? (d.h. wann ist {X t } ARMA(p, q) kausal bzgl. {ɛ t }?) 82

43 Satz 3.8: (Kausalitätsbedingung) Es sei {X t } ein ARMA(p, q)-prozess mit Φ(L)X t = Θ(L)ɛ t, wobei die z-transformierten der Lag-Polynome Φ(z) und Θ(z) keine gemeinsamen Nullstellen haben. {X t } ist genau dann kausal bezüglich {ɛ t }, wenn Φ(z) 0 für z 1, d.h. falls die Nullstellen der Gleichung Φ(z) = 0 außerhalb des Einheitskreises liegen. Die Koeffizienten {ψ j } sind dabei durch die folgende Beziehung eindeutig bestimmt: Ψ(z) = j=0 ψ j z j = Θ(z) Φ(z). (Beweis: Brockwell and Davis, 1991) 83

44 Bemerkungen: (I) Die Kausalitätsbedingung aus Satz 3.8 impliziert: Der ARMA(p, q)-prozess Φ(L)X t = Θ(L)ɛ t ist dann (schwach) stationär, falls die z-transformierten Φ(z) und Θ(z) keine gemeinsamen Nullstellen haben und die Nullstellen des AR- Polynoms Φ(z) außerhalb des Einheitskreises liegen Die (schwache) Stationarität des ARMA(p, q)-prozesses Φ(L)X t = Θ(L)ɛ t hängt also entscheidend vom AR-Polynom Φ(L) = 1 φ 1 L... φ p L p und somit von den AR-Parametern φ 1,..., φ p ab 84

45 Die Überprüfung der (schwachen) Stationarität eines ARMA(p, q)-prozesses erfordert also die Nullstellenberechnung von Polynomen (vgl. Übung) Haben die AR- und MA-Polynome Φ(L) und Θ(L) des ARMA(p, q)-prozesses keine gemeinsamen Nullstellen und ist Φ(z) = 0 für ein z mit z = 1 (Nullstelle auf dem Einheitskreis), so ist der durch Φ(L)X t = Θ(L)ɛ t definierte ARMA(p, q)-prozess nicht (schwach) stationär (Einheitswurzel-Prozess, Unit-Root-process ) 85

46 Beispiel (Einheitswurzelprozess): (I) Betrachte den ARMA(1, 0)-Prozess (Random Walk) X t = X t 1 + ɛ t Die AR- und MA-Polynome lauten Φ(L) = 1 L und Θ(L) = 1 Die z-transformierten lauten Φ(z) = 1 z und Θ(z) = 1 und es gilt Φ(z) = 0 für z = 1 und Θ(z) 0 für alle z C 86

47 Beispiel (Einheitswurzelprozess): (II) Daraus folgt Φ(z) und Θ(z) haben keine gemeisame Nullstelle und Φ(z) hat die Nullstelle z = 1 auf dem Einheitskreis Der Random Walk X t = X t 1 + ɛ t ist ein Einheitswurzel-Prozess und nicht stationär 87

48 Beispiel (Einheitswurzelprozess): (III) MA( )-Darstellung des Random-Walks: X t = X t 1 + ɛ t = X t 2 + ɛ t 1 + ɛ t = X t 3 + ɛ t 2 + ɛ t 1 + ɛ t. = ɛ t j j=0. 88

49 Beispiel (Einheitswurzelprozess): (IV) Für die Koeffizientenfolge der MA( )-Darstellung gilt und somit j=0 θ j = 1 für j = 0, 1, 2,... θ 2 j = θ j = j=0 j=0 1 = Die Koeffizientenfolge {θ j } j N0 des Random Walk ist weder absolut noch quadratisch summierbar Dass der Random Walk tatsächlich nicht stationär ist, erkennt man auch dann, wenn man den Prozess zum Zeitpunkt t = 0 starten lässt 89

50 Beispiel (Einheitswurzelprozess): (V) Dann hat {X t } t N0 die MA-Darstellung X t = t j=0 mit {ɛ t } t N0 WR(0, σ 2 ) ɛ t j = ɛ 0 + ɛ ɛ t Für die Varianz von {X t } t N0 gilt dann V ar(x t ) = V ar(ɛ t + ɛ t ɛ 0 ) = = (t + 1) σ 2 t j=0 V ar(ɛ j ) Die Varianz von {X t } steigt in t 90

51 Trajektorie eines Random Walk X t = X t 1 +ɛ t mit ɛ t GWR(0, 1) für t = 0, 1,...,

52 12 Trajektorie eines Random Walk t

53 Frage: Wie gewinnt man für einen kausalen ARMA(p, q)-prozess gemäß Satz 3.8 auf Folie 83 die Koeffizienten {ψ j } j N0 der MA( )-Darstellung aus der Beziehung Ψ(z) = j=0 ψ j z j = Θ(z) Φ(z)? 93

54 Antwort: (I) Durch einen rekursiven Koeffizientenvergleich nach Ausschreiben der Beziehung Ψ(z) Φ(z) = Θ(z) als (ψ 0 + ψ 1 z + ψ 2 z )(1 φ 1 z φ 2 z 2... φ p z p ) = 1 + θ 1 z + θ 2 z θ q z q und Ausmultiplizieren der linken Seiten zu ψ 0 + ψ 1 z + ψ 2 z 2 ψ 0 φ 1 z ψ 0 φ 2 z 2 ψ 1 φ 1 z = ψ 0 + (ψ 1 ψ 0 φ 1 )z + (ψ 2 ψ 0 φ 2 ψ 1 φ 1 )z = 1 + θ 1 z + θ 2 z θ q z q 94

55 Antwort: (II) Gleichsetzen der Koeffizienten von z j liefert: Für j = 0: ψ 0 = 1 Für j = 1: ψ 1 ψ 0 φ 1 = θ 1 ψ 1 = θ 1 + φ 1 Für j = 2: ψ 2 ψ 0 φ 2 ψ 1 φ 1 = θ 2 ψ 2 = θ 2 + φ 2 + (θ 1 + φ 1 )φ

56 Bemerkungen: (I) Die Koeffizienten {ψ j } j N0 eines kausalen ARMA(p, q)-prozesses geben die Wirkung von {ɛ t j } auf X t an (dynamische Multiplikatoren einer einmaligen Änderung) Da j=0 ψ j <, folgt lim j ψ j = 0 und damit lim j X t ɛ t j = lim j ψ j = 0, d.h. bei einem kausalen (und stationären) ARMA(p, q)-prozess stirbt der Effekt einer einmaligen ɛ t j -Veränderung aus je weiter diese in der Vergangenheit liegt 96

57 Bemerkungen: (II) Fasst man die Koeffizientenfolge {ψ j } j N0 als eine Funktion der Zeit auf, so spricht man von der Impulsantwortfunktion (grafische Darstellung von ψ j gegen j = 0, 1, 2,...) Der Effekt einer permanenten Änderung aller ɛ i für i = t j, t j + 1,..., t auf X t ist gegeben durch j i=0 ψ j Für den permanenten Effekt gilt j i=0 ψ i j i=0 ψ i i=0 ψ i < d.h. der kumulierte Effekt eines kausalen (und stationären) ARMA(p, q)-prozesses ist endlich 97

58 Jetzt folgende Problemstellung: Bei einem ARMA(p, q)-prozess der Form Φ(L)X t = Θ(L)ɛ t kann man die Realisationen von {X t } beobachten, die Realisationen von {ɛ t } jedoch nicht Kann man die Impulse {ɛ t } aus den heutigen und vergangenen Zuständen {X t } rekonstruieren? Invertierbarkeit 98

59 Definition 3.9: (Invertierbarkeit) Ein ARMA(p, q)-prozess {X t } mit Φ(L)X t = Θ(L)ɛ t heißt invertierbar bezüglich {ɛ t }, falls eine absolut summierbare Koeffizientenfolge {π j } j N0 mit j=0 π j < existiert, so dass ɛ t = π 0 X t + π 1 X t 1 + π 2 X t = j=0 π j X t j. 99

60 Satz 3.10: (Invertierbarkeitsbedingung) Es sei {X t } ein ARMA(p, q)-prozess mit Φ(L)X t = Θ(L)ɛ t, wobei die z-transformierten der Lag-Polynome Φ(z) und Θ(z) keine gemeinsamen Nullstellen haben. {X t } ist genau dann invertierbar bezüglich {ɛ t }, wenn Θ(z) 0 für z 1, d.h. falls die Nullstellen der Gleichung Θ(z) = 0 außerhalb des Einheitskreises liegen. Die Koeffizienten {π j } sind dabei durch die folgende Beziehung eindeutig bestimmt: Π(z) = j=0 π j z j = Φ(z) Θ(z). (Beweis: Brockwell and Davis, 1991) 100

61 Bemerkungen: Ein invertierbarer ARMA(p, q)-prozess kat eine AR( )- Darstellung mit absolut summierbarer Koeffizientenfolge {π j } Die Koeffizienten {π j } j N0 aus der AR( )-Darstellung gewinnt man nach Satz 3.10 aus der Beziehung Π(z) Θ(z) = Φ(z) durch Koeffizientenvergleich analog zur Koeffizientenbestimmung bei kausalen ARMA(p, q)-prozessen (vgl. Folien 94, 95) 101

62 3.4 Lineare Prozesse und Filter Motivation: Betrachte den MA(q)-Prozess X t = ɛ t + θ 1 ɛ t θ q ɛ t q = mit θ 0 1 und {ɛ t } WR(0, σ 2 ) q j=0 θ j ɛ t j Offensichtlich ist {X t } ein gewogener Durchschnitt von WR(0, σ 2 )-Prozessen 102

63 Verallgemeinerung: Erzeuge einen Prozess {X t } t Z als gewogenen Durchschnitt anderer stationärer Prozesse In die Durchschnittsbildung dürfen unendlich viele vergangene und zukünftige Werte einfließen Hier zunächst: Lineare Prozesse 103

64 Definition 3.11: (Linearer Prozess und Filter) Der Prozess {X t } t Z heißt linearer Prozess, falls er die folgende Darstellung besitzt: X t = + j= ψ j ɛ t j = (... + ψ 2 L 2 + ψ 1 L 1 + ψ 0 + ψ 1 L + ψ 2 L ) ɛ t = Ψ(L)ɛ t mit {ɛ t } WR(0, σ 2 ) und absolut summierbarer Koeffizientenfolge {ψ j } j Z, d.h. + j= ψ j <. Das Lag-Polynom Ψ(L) heißt (linearer) Filter. 104

65 Bemerkungen: Oft wird die verstärkende Zusatzannahme getroffen, dass die {ɛ t } einen WR(0, σ 2 )-Prozess mit unabhängig und identisch verteilten ZV en bilden Die Bedingung + j= ψ j < stellt sicher, dass durch die Durchschnittsbildung tatsächlich ein wohldefinierter stochastischer Prozess erzeugt wird 105

66 Jetzt: Betrachte anstelle von {ɛ t } WR(0, σ 2 ) in Definition 3.11 einen allgemeinen (schwach) stationären Prozess {Y t } t Z (allgemeine Filtration mit linearem Filter) Frage: Was kann man über die Kovarianzfunktion des gefilterten Prozesses {X t } t Z sagen? 106

67 Satz 3.12: (Kovarianzfunktion des gefilterten Prozesses) Es sei {Y t } t Z ein (schwach) stationärer Prozess mit E(Y t ) = 0 für alle t Z und Autokovarianzfunktion γ Y (h) für h Z. Falls + j= ψ j <, dann ist der gefilterte Prozess X t = + j= ψ j Y t j = Ψ(L)Y t ebenfalls (schwach) stationär mit E(X t ) = 0 für alle t Z und Autokovarianzfunktion für alle h Z. γ X (h) = j= k= ψ j ψ k γ Y (h + k j) (Beweis: Neusser, 2006) 107

68 Beispiel: Es sei {Y t } WR(0, σ 2 ) Betrachte bei absolut summierbarer Koeffizientenfolge {ψ j } j Z den gefilterten Prozess X t = + j= ψ j Y t j Die Autokovarianzfunktion des gefilterten Prozesses für h 0 lautet γ X (h) = σ 2 (Beweis: Übungsaufgabe) j= ψ j ψ j+h 108

69 Diverse Filter: (I) Veränderung gegenüber der Vorperiode: (Differenzenfilter) Ψ(L) = 1 L Veränderung gegenüber dem Vorjahresquartal: (bei Quartalsdaten) Ψ(L) = 1 L 4 109

70 Diverse Filter: (II) Elimination von Saisonschwankungen: Ψ(L) = ( 1 + L + L 2 + L 3) /4 oder Ψ(L) = 0.125L L L L 2 (bei Quartalsdaten) 110

71 Bemerkungen: Anwendung eines Filters führt zu systematischen Veränderungen der dynamischen Eigenschaften einer Zeitreihe Auswirkungen auf die Autokovarianzfunktion Dies kann zu falschen Schlussfolgerungen führen (Beispiel: Kuznets-Filter, vgl. Neusser, 2006) Wichtiger Filter in der Makroökonomik: Hodrick-Prescott-Filter zur Analyse realer Konjunkturzyklen (vgl. Neusser, 2006) 111

72 3.5 Die Autokovarianzfunktion eines ARMA(p, q)- Prozesses Vorbemerkungen: (I) Die Autokovarianzfunktion eines ARMA(p, q)-prozesses fasst die äußeren, direkt beobachtbaren Eigenschaften des Prozesses zusammen Die Parameter eines ARMA(p, q)-prozesses spiegeln die interne Struktur des Prozesses wider 112

73 Vorbemerkungen: (II) Zu jedem (schwach) stationären ARMA(p, q)-prozess existiert eine zugehörige Autokovarianzfunktion Allerdings können verschiedene ARMA(p, q)-prozesse dieselbe Autokovarianzfunktion aufweisen Identifikationsproblem (Beispiel: MA(1)-Prozess, vgl. Übung) 113

74 Jetzt: Zwei Verfahren zur Berechnung der Autokovarianzfunktion eines ARMA(p, q)-prozesses Voraussetzung für alle Verfahren: Der ARMA(p, q)-prozess Φ(L)X t = Θ(L)ɛ t mit {ɛ t } WR(0, σ 2 ) ist kausal bzgl. {ɛ t }, d.h. er hat eine MA( )-Darstellung X t = j=0 ψ j ɛ t j mit j=0 ψ j < 114

75 1. Verfahren: (I) Wir fassen den ARMA(p, q)-prozess {X t } als gefilterten Prozess von {ɛ t } auf Gemäß Folie 108 ist die Autokovarianzfunktion für h 0 gegeben durch γ X (h) = σ 2 j=0 ψ j ψ j+h (vgl. auch Satz 3.5 auf den Folien 64, 65) 115

76 1. Verfahren: (II) Die Koeffizienten {ψ j } j N0 können durch rekursiven Koeffizientenvergleich aus der Beziehung gewonnen werden (vgl. Folien 94, 95) Ψ(z) = j=0 ψ j z j = Θ(z) Φ(z) 116

77 1. Verfahren: (III) Formalisiert man dieses Vorgehen, so führt dies zu folgendem Gleichungssystem: ψ j ψ j j k=1 p k=1 φ k ψ j k = θ j für 0 j < max{p, q + 1} φ k ψ j k = 0 für j max{p, q + 1} Dieses Gleichungssystem kann rekursiv gelöst werden: ψ 0 = θ 0 = 1 ψ 1 = θ 1 + ψ 0 φ 1 = θ 1 + φ 1 ψ 2 = θ 2 + ψ 0 φ 2 + ψ 1 φ 1 = θ 2 + φ 2 + φ 1 θ 1 + φ

78 Alternative Vorgehensweise: Betrachte den 2. Teil des GLS als homogene (lineare) Differenzengleichung der Ordnung p Betrachte den 1. Teil des GLS als Anfangswerte für deren Lösung Löse die Differenzengleichung und setze die ψ j in die Formel der Autokovarianzfunktion ein 118

79 Beispiel: (I) Betrachte den ARMA(2, 1)-Prozess X t = 1.3X t 1 0.4X t 2 + ɛ t + 0.4ɛ t 1 mit den Lag-Polynomen Φ(L) = 1 1.3L + 0.4L 2 Θ(L) = L Für j max{2, 1 + 1} = 2 liefert der 2. Teil des obigen GLS die folgende Differenzengleichung 2. Ordnung: bzw. ausgeschrieben ψ j 2 k=1 φ k ψ j k = 0 ψ j 1.3ψ j ψ j 2 = 0 119

80 Beispiel: (II) Mit den beiden Anfangsbedingungen aus dem 1. Teil des GLS ψ 0 = θ 0 = 1 ψ 1 = θ 1 + ψ 0 φ 1 = θ 1 + φ 1 = = 1.7 erhält man die folgende Lösung der Differenzengleichung: ψ j = 4 (0.8) j 3 (0.5) j (Nachweis: Übung) 120

81 Beispiel: (III) Einsetzen dieser Lösung in die Formel für die Autokovarianzfunktion auf Folie 108 ergibt für h 0: γ X (h) = σ 2 [ (0.8)h 8 (0.5) h ] Für die Autokorrelationsfunktion ergibt sich für h 0: (Nachweis: Übung) ρ X (h) = γ X(h) γ X (0) = (0.8)h (0.5)h 121

82 Autokorrelationsfunktion des ARMA(2, 1)-Prozesses X t = 1.3X t 1 0.4X t 2 + ɛ t + 0.4ɛ t 1 mit ɛ t WR(0, σ 2 ) Autokorrelationsfunktion eines ARMA(2,1)-Prozesses h 122

83 2. Verfahren: (I) Betrachte den ARMA(p, q)-prozess X t φ 1 X t 1... φ p X t p = ɛ t + θ 1 ɛ t θ q ɛ t q Multiplikation der Gleichung mit X t h liefert X t X t h φ 1 X t 1 X t h... φ p X t p X t h = ɛ t X t h + θ 1 ɛ t 1 X t h θ q ɛ t q X t h Bildung der Erwartungswerte liefert E(X t X t h ) φ 1 E(X t 1 X t h )... φ p E(X t p X t h ) = E(ɛ t X t h ) + θ 1 E(ɛ t 1 X t h ) θ q E(ɛ t q X t h ) 123

84 2. Verfahren: (II) Wegen E(X t ) = 0 für alle t Z folgt E(X t X t h ) = Cov(X t, X t h ) = γ X (h) E(X t 1 X t h ) = Cov(X t 1, X t h ) = γ X (h 1)... E(X t p X t h ) = Cov(X t p, X t h ) = γ X (h p) und somit γ X (h) φ 1 γ X (h 1)... φ p γ X (h p) = E(ɛ t X t h ) + θ 1 E(ɛ t 1 X t h ) θ q E(ɛ t q X t h ) 124

85 2. Verfahren: (III) Ist nun h > q, so gilt für alle j = 0,..., q E(ɛ t j X t h ) = Cov(ɛ t j, X t h ) = 0, da X t h nur von ɛ t h, ɛ t h 1,... abhängt Folglich gilt für alle h q + 1 γ X (h) φ 1 γ X (h 1)... φ p γ X (h p) = 0 (Yule-Walker-Gleichungen) Für h q + 1 genügen die Autokovarianzen γ X (h),..., γ X (h p) einer Differenzengleichung der Ordnung p 125

86 2. Verfahren: (IV) Die Yule-Walker-Differenzengleichung kann unter Verwendung bestimmter Anfangsbedingungen für γ X (0),..., γ X (q) mit Standardtechniken gelöst werden (vgl. Neusser, 2006) Für h q gilt die Yule-Walker-Gleichung aufgrund der Korrelation zwischen θ h ɛ t h und X t h nicht 126

Definition und Beispiele. Lineare Prozesse. Kausalität und Invertierbarkeit. Berechnung der Autokovarianzfunktion. Prognosen in ARMA-Modellen

Definition und Beispiele. Lineare Prozesse. Kausalität und Invertierbarkeit. Berechnung der Autokovarianzfunktion. Prognosen in ARMA-Modellen Kap. 2: ARMA-Prozesse Definition und Beispiele Lineare Prozesse Kausalität und Invertierbarkeit Berechnung der Autokovarianzfunktion Prognosen in ARMA-Modellen Wold-Darstellung 2.1 Definition und Beispiele

Mehr

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2. Seminar Finanzmathematik - Begrüßung - Motivation - Inhaltsangabe 3. Zusammen - fassung Zeitreihenanalyse Andreas Dienst SS 2006 Zeitreihen: Definition und Motivation - Begrüßung - Motivation - Inhaltsangabe

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

7. Stochastische Prozesse und Zeitreihenmodelle

7. Stochastische Prozesse und Zeitreihenmodelle 7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse

Mehr

2 Stationarität. Strikte Stationarität

2 Stationarität. Strikte Stationarität 2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele

Mehr

Stochastische Prozesse und Box-Jenkins Technik

Stochastische Prozesse und Box-Jenkins Technik Stochastische Prozesse und Box-Jenkins Technik Stichwörter: AR-, MA- und ARMA-Prozeß weißes Rauschen random walk Autokorrelations-Funktion Stationarität Invertierbarkeit Korrelogramm Box-Jenkins Technik

Mehr

10 ARIMA-Modelle für nicht-stationäre Zeitreihen

10 ARIMA-Modelle für nicht-stationäre Zeitreihen 10 ARIMA-Modelle für nicht-stationäre Zeitreihen In diesem Abschnitt untersuchen wir einige praktische Aspekte bei der Wahl eines geeigneten Modells für eine beobachtete Zeitreihe X 1,...,X n. Falls die

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift

Mehr

Zeitreihenanalyse. 1 Einleitung. 2 Autoregressive Prozesse, lineare Differenzengleichungen

Zeitreihenanalyse. 1 Einleitung. 2 Autoregressive Prozesse, lineare Differenzengleichungen Zeitreihenanalyse Enno MAMMEN Department of Economics, University of Mannheim L7, 3-5, 68131 Mannheim, Germany E mail: emammen@rumms.uni-mannheim.de February 22, 2006 1 Einleitung Klassisches Komponentenmodell,

Mehr

Kompaktskript zur Vorlesung Prognoseverfahren

Kompaktskript zur Vorlesung Prognoseverfahren Kompaktskript zur Vorlesung Prognoseverfahren Friedrich-Schiller-Universität Jena Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Wirtschafts- und Sozialstatistik Prof. Dr. P. Kischka Sommersemester

Mehr

4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR

4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR Im Allgemeinen wird sich das Verhalten einer ZR über die Zeit ändern, z.b. Trend, saisonales Verhalten, sich verändernde Variabilität. Eine ZR wird als stationär bezeichnet, wenn sich ihr Verhalten über

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Folien zur Vorlesung. Zeitreihenanalyse (Time Series Analysis)

Folien zur Vorlesung. Zeitreihenanalyse (Time Series Analysis) Folien zur Vorlesung Zeitreihenanalyse (Time Series Analysis) Wintersemester 2014/2015 Mittwoch 14.00 15.30 Uhr Hörsaal: J 498 Prof. Dr. Bernd Wilfling Westfälische Wilhelms-Universität Münster Inhalt

Mehr

Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland

Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland Klaus Neusser 2. Dezember 2010 Zusammenfassung Ziel dieses Beitrags ist es, den fortgeschrittenen Studierenden eine Einführung

Mehr

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen

Mehr

Das magische Quadrat für stochastische Prozesse

Das magische Quadrat für stochastische Prozesse . Geodätische Woche Das magische Quadrat für stochastische Prozesse 1 Institut für Geodäsie und Geoinformation Professur für Theoretische Geodäsie - Universität Bonn Ina Krasbutter, Boris Kargoll, Wolf-Dieter

Mehr

Modul: Zeitreihenanalyse und Anwendungen in der empirischen Kapitalmarktforschung. Leseprobe

Modul: Zeitreihenanalyse und Anwendungen in der empirischen Kapitalmarktforschung. Leseprobe Prof. Dr. Hermann Singer Modul: 32681 Zeitreihenanalyse und Anwendungen in der empirischen Kapitalmarktforschung Kurs: 00889 Version vom 10/2004 Überarbeitet am 10/2015 Leseprobe Inhaltsverzeichnis 1 Überblick

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Stationäre Zeitreihenmodelle

Stationäre Zeitreihenmodelle Exemplarisch für parametrische Zeitreihenmodelle werden in diesem Kapitel autoregressive Prozesse und ARCH-Prozesse vorgestellt. Der autoregressive Prozess ist einer der einfachsten stationären Prozesse.

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Kapitel III Ringe und Körper

Kapitel III Ringe und Körper Kapitel III Ringe und Körper 1. Definitionen und Beispiele Definition 117 Eine Algebra A = S,,, 0, 1 mit zwei zweistelligen Operatoren und heißt ein Ring, falls R1. S,, 0 eine abelsche Gruppe mit neutralem

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt Karlsruher Institut für Technologie Institut für Algebra und Geometrie PD Dr. F. Hettlich Dr. S. Schmitt Dipl.-Math. J. Kusch Karlsruhe, den 09.06.20 Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

6. Schätzung stationärer ARMA-Modelle

6. Schätzung stationärer ARMA-Modelle 6. Schätzung stationärer ARMA-Modelle Problemstellung: Statistische Anpassung eines stationären ARMA(p, q)-prozesses an eine Stichprobe von t = 1,..., T Prozessbeobachtungen Es bezeichne x 1,..., x T die

Mehr

Thema:ARMA-Prozesse. Johannes Blank 8. Juni 2010

Thema:ARMA-Prozesse. Johannes Blank 8. Juni 2010 Thema:ARMA-Prozesse Johannes Blank 8. Juni 2010 Abstract Zeitreihen, also stoch. Prozesse mit Indexmenge Z, spielen in der Ökonometrie (der mathematisch formalisierte Teil der Wirtschaftswissenschaften)

Mehr

Was sind Zeitreihen? Software. Literatur. Überblick. Beispiele. Grundbegriffe

Was sind Zeitreihen? Software. Literatur. Überblick. Beispiele. Grundbegriffe Kap. 1: Einführung Was sind Zeitreihen? Software Literatur Überblick Beispiele Grundbegriffe 1.1 Was sind Zeitreihen? Datentypen in der Ökonometrie: Querschnittsdaten Beispiel: Daten für 5 000 Haushalte

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Maße auf Produkträumen

Maße auf Produkträumen Maße auf Produkträumen Es seien (, Ω 1 ) und (X 2, Ω 2 ) zwei Meßräume. Wir wollen uns zuerst überlegen, wie wir ausgehend davon eine geeignete σ-algebra auf X 2 definieren können. Wir betrachten die Menge

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Zeitreihenökonometrie

Zeitreihenökonometrie Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Numerische Verfahren und Grundlagen der Analysis

Numerische Verfahren und Grundlagen der Analysis Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen

Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen MATHEMATISCHES INSTITUT SoSe 24 DER UNIVERSITÄT MÜNCHEN Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen Musterlösung Prof. Dr. P. Pickl Aufgabe Zeigen Sie, dass

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Konstruktion der reellen Zahlen

Konstruktion der reellen Zahlen Konstruktion der reellen Zahlen Zur Wiederholung: Eine Menge K (mit mindestens zwei Elementen) heißt Körper, wenn für beliebige Elemente x, y K eindeutig eine Summe x+y K und ein Produkt x y K definiert

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem

8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8.1 Der Kompaktheitssatz Kompaktheitssatz Endlichkeitssatz Der Kompaktheitssatz ist auch unter dem Namen Endlichkeitssatz bekannt. Unter Verwendung

Mehr

Analytische Lösung algebraischer Gleichungen dritten und vierten Grades

Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Inhaltsverzeichnis 1 Einführung 1 2 Gleichungen dritten Grades 3 3 Gleichungen vierten Grades 7 1 Einführung In diesem Skript werden

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

Serie 4 2 = 10. ) ist). Dann gilt für alle n n 0

Serie 4 2 = 10. ) ist). Dann gilt für alle n n 0 Serie 4. Aufgabe 336 Punkte) Gegeben seien zwei reelle Zahlenfolgen durch a n : 0 n, n N b n : n n, n N Bestimmen Sie die Grenzwerte a bzw. b der Folgen a n ) n N bzw. b n ) n N. Geben Sie jeweils zu gegebenem

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Fachhochschule Nordwestschweiz (FHNW Hochschule für Technik Institut für Geistes- und Naturwissenschaft Lösungen Serie 6 (Vektorräume, Skalarprodukt Dozent: Roger Burkhardt Klasse: Studiengang ST Büro:

Mehr

Statistische Kennwerte und -funktionen. Dr.-Ing. habil. H. Nobach

Statistische Kennwerte und -funktionen. Dr.-Ing. habil. H. Nobach Statistische Kennwerte und -funktionen Dr.-Ing. habil. H. Nobach 1. Einführung Statistische Kennwerte und -funktionen, wie Mittelwert Varianz Wahrscheinlichkeitsdichte Autokorrelation spektrale Leistungsdichte

Mehr

5 Multivariate stationäre Modelle

5 Multivariate stationäre Modelle 5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als

Mehr

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) WS 2011/12 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ws/ds/uebung/ 18. Januar 2012 ZÜ DS ZÜ XII

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

Kapitel II. Vektoren und Matrizen

Kapitel II. Vektoren und Matrizen Kapitel II. Vektoren und Matrizen Vektorräume A Körper Auf der Menge R der reellen Zahlen hat man zwei Verknüpfungen: Addition: R R R(a, b) a + b Multiplikation: R R R(a, b) a b (Der Malpunkt wird oft

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Bewegung im elektromagnetischen Feld

Bewegung im elektromagnetischen Feld Kapitel 6 Bewegung im elektromagnetischen Feld 6. Hamilton Operator und Schrödinger Gleichung Felder E und B. Aus der Elektrodynamik ist bekannt, dass in einem elektrischen Feld E(r) und einem Magnetfeld

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Regressionsmodelle mit Anwendungen in der Versicherungs- & Finanzwirtschaft SS 2015

Regressionsmodelle mit Anwendungen in der Versicherungs- & Finanzwirtschaft SS 2015 Regressionsmodelle mit Anwendungen in der Versicherungs- & Finanzwirtschaft SS 2015 Univ.-Prof. Dr. Michael Merz Universität Hamburg Übungsaufgaben Übungsaufgaben c 2015 M. Merz Universität Hamburg Regressionsmodelle

Mehr

Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik

Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Lineare Algebra Analytische Geometrie I* Übungsaufgaben, Blatt Musterlösungen Aufgabe. Es seien A, B, C Teilmengen einer Menge X. Zeige: i A B C =

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

7. Integrierte Prozesse

7. Integrierte Prozesse 7. Integrierte Prozesse Bisher: Behandlung stationärer Prozesse (stationäre ARMA(p, q)-prozesse) Problem: Viele ökonomische Zeitreihen weisen im Zeitverlauf ein nichtstationäres Verhalten auf 225 Beispiel:

Mehr

Kapitel 6: Das quadratische Reziprozitätsgesetz

Kapitel 6: Das quadratische Reziprozitätsgesetz Kapitel 6: Das quadratische Reziprozitätsgesetz Ziel dieses Kapitels: die Untersuchung der Lösbarkeit der Kongruenzgleichung X also die Frage, ob die ganze Zahl Z eine Quadratwurzel modulo P besitzt. Im

Mehr

Lineare Differenzengleichungen und Polynome. Franz Pauer

Lineare Differenzengleichungen und Polynome. Franz Pauer Lineare Differenzengleichungen und Polynome Franz Pauer Institut für Mathematik, Universität Innsbruck, Technikerstr. 13/7, A-600 Innsbruck, Österreich. Franz.Pauer@uibk.ac.at Vortrag beim ÖMG-LehrerInnenfortbildungstag

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Kapitel V. Affine Geometrie

Kapitel V. Affine Geometrie Kapitel V Affine Geometrie 1 Affine Räume Betrachte ein lineares Gleichungssystem Γ : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a 2n x n = b 2 a m1 x 1 + a m2 x 2 + + a mn x n = b

Mehr

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung Kapitel 3 Lineare Abbildungen Lineare Abbildungen sind eine natürliche Klasse von Abbildungen zwischen zwei Vektorräumen, denn sie vertragen sich per definitionem mit der Struktur linearer Räume Viele

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie Institut für Elektrotechnik und Informationstechnik Aufgabensammlung zur Systemtheorie Prof. Dr. techn. F. Gausch Dipl.-Ing. C. Balewski Dipl.-Ing. R. Besrat 05.04.2013 Übungsaufgaben zur Systemtheorie

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Hilbertpolynom von I, i.z. a HP I.

Hilbertpolynom von I, i.z. a HP I. 9.4.4 Korollar/Def. Sei (1) I k[x 1,..., X n ] ein Ideal. Dann ist die affine Hilbertfunktion a HF I (s) für s 0 ein Polynom in s mit Koeffizienten in Q; es heißt das affine Hilbertpolynom von I, i.z.

Mehr

Lineare Differenzialgleichung und verwandte Fälle

Lineare Differenzialgleichung und verwandte Fälle Lineare Differenzialgleichung und verwandte Fälle 1. Die lineare Differenzialgleichung Eine lineare Differenzialgleichung 1. Ordnung besitzt die Form y + g(x)y = h(x), wobei g(x) und h(x) stetig sind.

Mehr

1 Theorie der Kettenbrüche II

1 Theorie der Kettenbrüche II Theorie der Kettenbrüche II Vom ersten Vortrag erinnern wir, dass sich jede reelle Zahl α wie folgt darstellen lässt: α = a 0 + a + a 2 + mit a 0 Z und a i N >0 für jedes i Die Kettenbruchdarstellung lässt

Mehr

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0).

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0). 5 Quadriken Kegelschnitte Ein Kegelschnitt ist eine Teilmenge K R 2, welche durch eine quadratische Gleichung in zwei Unbestimmten beschrieben werden kann: x K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f =

Mehr

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel 4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

14 Lineare Differenzengleichungen

14 Lineare Differenzengleichungen 308 14 Lineare Differenzengleichungen 14.1 Definitionen In Abschnitt 6.3 haben wir bereits eine Differenzengleichung kennengelernt, nämlich die Gleichung K n+1 = K n q m + R, die die Kapitalveränderung

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Folgen und Reihen. Folgen. Inhalt. Mathematik für Chemiker Teil 1: Analysis. Folgen und Reihen. Reelle Funktionen. Vorlesung im Wintersemester 2014

Folgen und Reihen. Folgen. Inhalt. Mathematik für Chemiker Teil 1: Analysis. Folgen und Reihen. Reelle Funktionen. Vorlesung im Wintersemester 2014 Inhalt Mathematik für Chemiker Teil 1: Analysis Vorlesung im Wintersemester 2014 Kurt Frischmuth Institut für Mathematik, Universität Rostock Rostock, Oktober 2014... Folgen und Reihen Reelle Funktionen

Mehr

Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29

Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29 Dynamische Systeme und Zeitreihenanalyse Komplexe Zahlen Kapitel 3 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.0/29 Motivation Für die

Mehr

Lineare Differenzengleichungen

Lineare Differenzengleichungen Lineare Differenzengleichungen Die Fibonacci-Zahlen F n sind definiert durch F 0 = 0 F 1 = 1 F n = F n 1 +F n 2 für n >= 2 Die letzte Zeile ist ein Beispiel für eine homogene lineare Differenzengleichung

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

c r Addiert man nun beide Reihendarstellungen, so folgt f (ζ) Nach dem Cauchyschen Integralsatz gilt dann auch

c r Addiert man nun beide Reihendarstellungen, so folgt f (ζ) Nach dem Cauchyschen Integralsatz gilt dann auch Residuen V Beweis Einsetzen in das Kurvenintegral über c r ergibt demnach f (ζ) 2πi ζ z dζ = f (ζ) 2πi (ζ z 0 ) c r k= c r k+ dζ Addiert man nun beide Reihendarstellungen, so folgt a k (z z 0 ) k, r z

Mehr

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016 Übungen zu Einführung in die Numerische Mathematik (VE) Sommersemester 6 Prof. Dr. Martin Rumpf Pascal Huber Sascha Tölkes Übungsblatt 8 Abgabe:.6.6 Aufgabe 5 (Elliptisches Randwertproblem auf einem Ring)

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Formelsammlung Zeitreihenanalyse in den Wirtschaftswissenschaften

Formelsammlung Zeitreihenanalyse in den Wirtschaftswissenschaften Formelsammlung Zeitreihenanalyse in den Wirtschaftswissenschaften Sommersemester 2017 Prof Dr Hans-Jörg Starkloff & Dr Andreas Wünsche Stand: 21 Juli 2017 1 1 Einleitung 11 Elemente der deskriptiven Zeitreihenanalyse

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr