10 ARIMA-Modelle für nicht-stationäre Zeitreihen

Größe: px
Ab Seite anzeigen:

Download "10 ARIMA-Modelle für nicht-stationäre Zeitreihen"

Transkript

1 10 ARIMA-Modelle für nicht-stationäre Zeitreihen In diesem Abschnitt untersuchen wir einige praktische Aspekte bei der Wahl eines geeigneten Modells für eine beobachtete Zeitreihe X 1,...,X n. Falls die Reihe ein stationäres Verhalten zeigt (Grafik) und die Autokovarianzen schnell genug abklingen, so legt man i.a. ein ARMA(p, q)-modell zugrunde. Falls nicht, versucht man, durch geeignete Transformation (z.b. Differenzenbildung) zu einer ARMA(p, q)-reihe zu kommen. Definition (ARIMA(p, d, q)-reihe ) Für d N 0 heißt {X n } n Z eine ARIMA(p, d, q)-reihe, falls die Zeitreihe {Y n } n Z mit Y n =(1 B) d X n,n Z, eine kausale ARMA(p, q)-reihe bildet. [ ] AutoRegressive Integrierte Moving Average-Zeitreihe. D.h., eine ARIMA(p, d, q)-reihe genügt der Differenzengleichung (10.1) a (B) X n = a(b)(1 B) d X n = b(b) e n, n Z, mit {e n } D WN(0,σ ), dem Backward-Shift-Operator B und Polynomen a (z) = a(z)(1 z) d = (1 a 1 z a p z p )(1 z) d, a p 0, b(z) = 1+b 1 z + + b q z q, b q 0, wobei a(z) 0 für z 1 (Kausalität). Das Polynom a ( ) besitzt also eine d-fache Nullstelle bei z = 1. Bemerkung a) Bei d 1 kann ein polynomialer Trend der Ordnung d 1 zu {X n } addiert werden, ohne die Gleichungen (10.1) zu verletzen. Daher gilt : {X n } ist stationär d =0. b) EX n und Cov(X n,x m ) sind durch (10.1) nicht eindeutig festgelegt. c) Für eine Vorhersage werden zusätzliche Bedingungen an {X n } benötigt (s.u.). 61

2 Beispiel {X n } ist ARIMA(1, 1, 0)-Reihe, falls für α < 1 gilt : (1 αb)(1 B) X n = e n, d.h. Y n = (1 B)X n = α j e n j, n Z, j=0 wobei {e n } D WN(0,σ ). Folglich : X n = X 0 + n Y j, n N, sowie X n = X 0 j=1 n 1 Y j, n N. j=0 Typisch für ARIMA-Zeitreihen : Es gibt langsam abklingende positive (oder oszillierende) Autokovarianzen. Ferner : Es werden nur spezielle Nicht-Stationaritäten modelliert. Wichtig : Identifikation der Modellordnungen ( p, q und d ). Oft gelingt eine angemessene Modellierung erst nach vorheriger Transformation, z.b. Box- Cox (1964)-Transformationen : 1 f λ (X j ) = {X λ j 1}, X j 0 (λ>0) bzw. ln X j, X j > 0 (λ =0). Identifikation : Sei {X j } trendbereinigte, ggf. transformierte Zeitreihe, für die ein ARMA(p, q)-modell angepasst werden soll. Man beachte : Es besteht die Gefahr der Überanpassung ( Overfitting ), z.b. können 100 beobachtete Werte (etwa) einer Zeitreihe Y j = a + b j + ε j (j =1,...,100) perfekt durch ein Polynom 99-sten Grades angepasst werden, das aber offenbar das Modell weit verfehlt. Daher : Anpassungskriterien, die Overfitting verhindern sollen. FPE-Kriterium (Akaike, 1969) [ Minimiere Final Prediction Error ] : FPE : (Geschätzter) 1-Schritt-Vorhersagefehler einer von {X 1,...,X n } unabhängigen Realisation, etwa {Y 1,...,Y n }, derselben Zeitreihe. Sei z.b. {X 1,...,X n } Abschnitt einer kausalen AR(p)-Reihe und {Y 1,...,Y n } unabhängig von {X 1,...,X n } mit derselben Struktur ; ferner seien â 1,...,â p die 6

3 ML-Schätzer von a 1,...,a p, basierend auf X 1,...X n. Betrachte den (geschätzten) 1-Schritt-Vorhersagefehler E ( Y n+1 â 1 Y n â p Y n+1 p ). Mit X (n) =(X 1,...,X n ),Y (n,p) =(Y n,...,y n+1 p ),a=(a 1,...,a p ), â =(â 1,...,â p ) erhält man : E ( Y n+1 â Y (n,p)) = E ( Yn+1 a Y (n,p) (â a) Y (n,p)) Kausalität = σ + E ( E { (â a) Y (n,p) Y (n,p) (â a) X (n) }) X (n),y (n,p) = unabhängig σ + E{(â a) Γ p (â a) } mit Γ p = (( γ(j k) )) j,k=1,...,p. Bei {e n } D IID(0,σ ) gilt (vgl. Brockwell & Davis (1991), Theorem 8.1.1) : D ( ) n (â a) N 0,σ Γ 1 p und daher n (â a) Γ p (â a) D σ X p, d.h. E ( (â a) Γ p (â a) ) σ p n, also E ( ) ( Y n+1 â 1 Y n â p Y n+1 p σ 1+ p ). n Ersetzt man σ durch die ML-Schätzung ˆσ und beachtet ( vgl. Brockwell & Davis (1991), 8.9 ) n ˆσ D σ X n p, d.h. n ˆσ so motiviert dies den Ansatz : FPE := n ( ˆσ 1+ p ) n p n Allgemeiner anwendbar ist das n p Minimiere = ˆσ n + p n p. asymptotisch erwartungstreu, AIC-Kriterium (Akaike 1973) [ Akaike s Information Criterion ] : Es basiert auf der Kullback-Leibler-Information (dem Kullback-Leibler-Index) einer W-Dichte f( ; ϑ) bzgl. einer anderen f( ; ϑ 0 ), d.h. auf I(ϑ ϑ 0 ) := log ( f(x; ϑ) ) { ( )} f(x; ϑ 0 ) dx = E ϑ0 log f(x; ϑ). Die Jensen sche Ungleichung liefert für die Kullback-Leibler-Diskrepanz d(ϑ ϑ 0 ):= I(ϑ ϑ 0 ) I(ϑ 0 ϑ 0 ): 63

4 f(x, ϑ) d(ϑ ϑ 0 ) log f(x, ϑ 0 ) f(x, ϑ 0) dx = 0, wobei = genau dann gilt, wenn P X ϑ = P X ϑ 0. Seien {X 1,...,X n } Abschnitt einer kausalen ARMA(p, q)-reihe und {Y 1,...,Y n } unabhängig von {X 1,...,X n } mit derselben Struktur. Analog zum FPE betrachtet man die (geschätzte) Kullback-Leibler-Information (10.) E a,b;σ { logf(y ;â, ˆb, ˆσ ) }, wobei X =(X 1,...,X n ), Y =(Y 1,...,Y n ), â, ˆb, ˆσ die Schätzer für die entsprechende Gauß sche ARMA(p, q)-reihe bezeichnen ( vgl. (9.13) (9.14) ). Mit S(a, b) = S X (a, b) aus 9 erhält man für die log-likelihoodfunktion : (â, logl Y ˆb, ) (â, ˆσ = logl X ˆb, ) ˆσ + 1ˆσ S (â, Y ˆb) n [ 1 beachte : n S (â, ] X ˆb) = ˆσ, folglich { ( logf Y ;â, ˆb, )} ˆσ E a,b,σ = E a,b,σ { loglx (â,ˆb, ˆσ )} + E a,b,σ Man kann zeigen, dass Normalapprox. E a,b,σ S Y (â, ˆb) σ (n + p + q) { SY (â, ˆb) ˆσ } n. (â, sowie S Y ˆb) asymptotisch unabhängig ist von ˆσ. Daher : { (â, SY ˆb) } ( ) (10.3) E a,b,σ n σ (n + p + q) E ˆσ a,b,σ n 1ˆσ = ( B&D σ (n + p + q) σ n p q n AICC ( â, ˆb ) ( := logl X â, ˆb; S X(â, ˆb) ) + n ) 1 n = (p + q +1)n n p q (p + q +1)n n p q ist asymptotisch erwartungstreuer Schätzer der (geschätzten) Kullback-Leibler-Information in (10.), falls a, b, σ bzw. p, q die zutreffenden Parameterwerte sind. Wähle daher p, q derart, dass AICC(â,ˆb) minimiert wird. [ ] Akaike s Information Criterion Corrected 64

5 Das Akaike Information Criterion AIC ( â, ˆb ) ( := logl X â, ˆb; S X(â, ˆb) ) +(p + q +1)n n benutzt eine andere Approximation in (10.3), kann aber ansonsten entsprechend verwendet werden. Weitere Modelldiagnose : Da die gewichteten Innovationen W j = ( X j ˆX )/ j rj 1 mit r j 1 = E ( X j ˆX ) / j σ (j =1,...,n) paarweise orthogonal sind, mit EW j =0,EWj = σ, also den Abschnitt einer WN(0,σ )-Reihe bilden, sollten sich auch die (so genannten) Residuen (10.4) Ŵ j = X j ˆX j (â, ˆb) r j 1 (â,ˆb), j =1,,..., näherungsweise wie ein weißes Rauschen WN(0, ˆσ ) verhalten. Eine andere mögliche Wahl der Residuen ist : ê j = ˆb 1 (B)â(B) X j, j =1,...,n, wobei â(z) :=1 â 1 z â p z p, ˆb(z) =1+ˆb 1 z + + ˆb q z q und X j := 0, falls j 0. Zu Tests auf Vorliegen eines weißen Rauschens vgl. Brockwell & Davis (1991), 9.4. Vorhersage von ARIMA-Zeitreihen : I.A. sind die E.W. EX j und. Momente EX j X j+k einer ARIMA(p, d, q)- Reihe nicht durch die Modellgleichungen (10.1) eindeutig festgelegt. Sei z.b. {Y j } j=1,,... eine zentrierte, kausale ARMA(p, q)-reihe und j X j = X 0 + Y l (j =1,,...) l=1 mit einer quadratintegrierbaren ZV. X 0, so bildet {X j } j=0,1,... eine ARIMA(p, 1,q)- Reihe mit E.W. EX j = EX 0 und Autokovarianzen, die von Var(X 0 ) und den Kovarianzen Cov(X 0,Y j ) abhängen. Beste lineare Vorhersage : Sei M n =[{X 0,X 1,...,X n }]=[{X 0,Y 1,...,Y n }], so ergibt sich : ˆX n+1 = P Mn (X 0 + Y Y n+1 ) = X n + P Mn Y n+1, 65

6 wobei letztere Projektion von EX 0 Y j (j =1,...,n+ 1) und EX0 abhängt. Sind X 0 und die {Y j } unkorreliert, so gilt : P [{X0,Y 1,...,Y n+1 }] Y n+1 = P [{Y1,...,Y n}] Y n+1, d.h., es genügt die Kenntnis der acv.f. von {Y j } für die Vorhersage von {X j }. Allgemeiner Fall : Die beobachtete Zeitreihe {X j } j=1,,... genüge der Differenzengleichung (10.5) (1 B) d X j = Y j, j =1,,..., wobei {Y j } eine kausale ARMA(p, q)-reihe sei und B der Backward-Shift-Operator. Annahme : {X 1 d,x d,...,x 0 } und {Y 1,Y,...} sind orthogonal, d.h. paarweise unkorreliert. Es seien n + d Werte, etwa X 1 d,x d,...,x n von {Y j } beobachtet worden. von {X j }, d.h. n Werte Y 1,...,Y n Gesucht : P Mn X n+h = P [{X1 d,...,x n}] X n+h (h =1,,...). Setze P n Y n+h := P [{Y1,...,Y n}] Y n+h, Ŷ n+1 = P n Y n+1. Da M n =[{X 1 d,...,x 0 ; Y 1,...,Y n }] und [{X 1 d,...,x 0 }] [{Y 1,...,Y n }], erhält man : (10.6) P Mn Y n+h = P M0 Y n+h + P n Y n+h = P n Y n+h. Eine Anwendung von (10.6) auf die Gleichung (10.5) liefert : (10.7) P Mn X n+h (10.5) = P Mn (Y n+h (10.6) = P n Y n+h d j+1 d j+1 ( d j ( ) d )( 1) j X n+h j j ) ( 1) j P Mn X n+h j. Da die Vorhersagen P n Y n+h der ARMA(p, q)-reihe {Y j } gemäß 7 rekursiv bestimmt werden können, lassen sich die Vorhersagen P Mn X n+1,p Mn X n+,... also gemäß (10.7) ebenfalls rekursiv berechnen. Man beachte : P Mn X n+1 j = X n+1 j (j =1,...,d). Mit X k+1 = P M k X k+1 liefern (10.5) und (10.7) : X k+1 X k+1 = Y k+1 Ŷk+1, k =0, 1,

7 Folglich für n>r=max(p, q) und h 1 ( vgl. (7.8)/(7.13) ) : p q ( (10.8) P n Y n+h = a j P n Y n+h j + d n+h 1,j Xn+h j Xn+h j). j=1 j=h Mit a (z) =(1 z) d a(z) =1 a 1 z a p+d zp+d liefern (10.6) (10.8) : p+d q ( (10.9) P Mn X n+h = a j P Mn X n+h j + d n+h 1,j Xn+h j Xn+h j), j=1 j=h analog zu (7.8)/(7.13) für die h-schritt-vorhersagen von ARMA(p, q)-reihen. Zum Vorhersagefehler : vgl. Brockwell & Davis (1991), Formeln (9.5.6) und (9.5.7). Abschließend noch einige Bemerkungen zu SARIMA-(saisonale ARIMA-)Zeitreihen : Statt des klassischen Modells X j = m j + s j + Y j, j Z mit deterministischen Trendund Saisonkomponenten m j und s j betrachtet man die trendbereinigte Zeitreihe mit zufälliger Saisonkomponente, z.b. Monatsdaten über verschiedene Jahre erhoben : Monat X 1 X... X 1 Jahr X 13 X X 4 3 X 15 X 6... X r X 1+1(r 1) X +1(r 1)... X 1+1(r 1) Modellierung, z.b. für Monat k = 1,...,1 : X k+1j A 1 X k+1(j 1) a P X k+1(j P ) (10.10) = U k+1j + B 1 U k+1(j 1) + + B Q U k+1(j Q) mit {U k+1j } D j Z WN(0,σU ), d.h., man modelliert dasselbe ARMA(P, Q)-Modell für die Zwischenjahreswerte. Man beachte, dass i.a. EU j U j+h 0, falls h 1. Mit A(z) =1 A 1 z A P z P, B(z) =1+B 1 z + + B Q z Q, Backward-Shift-Operator B 1 gilt : (10.10 ) A(B 1 ) X j = B(B 1 ) U j, j Z, wobei {U k+1j } D WN(0,σ U ). 67 z C, und dem

8 Zur Modellierung der Abhängikeiten der 1 verschiedenen Zwischenjahresreihen wähle man z.b. ein ARMA(p, q)-modell für die Folge {U j } j Z, d.h. (10.11) a(b) U j = b(b) e j, j Z, mit a(z) =1 a 1 z a p z p,b(z) =1+b 1 z + + b q z q, {e j } D WN(0,σ). Man beachte, dass i.a. EU j U j+h 0 j, h aber EU j U j+1h klein. Eine Kombination von (10.10) und (10.11) und Zulassen vorheriger Differenzenbildung liefert : Definition 10.. (SARIMA (p, d, q) (P, D, Q) s -Reihe ) Für d, D N 0 heißt {X j } j Z saisonale ARIMA (p, d, q) (P, D, Q) s -Reihe ) mit Periode s, falls die Reihe {Y j } j Z mit Y j =(1 B 1 ) d (1 B s ) D X j eine kausale ARMA(p, q)- Reihe bildet, d.h. a(b 1 )A(B s ) Y j = b(b 1 )B(B s ) e j, j Z, wobei {e j } D WN(0,σ ) und a(z) =1 a 1 z a p z p, a p 0, A(z) = 1 A 1 z A P z P, A P 0, b(z) =1+b 1 z + + b q z q, b q 0, B(z) = 1+B 1 z B Q z Q, B Q 0. Bemerkung 10.. a) {Y j } kausal = a(z) 0 A(z) ( z 1) ; b) In Anwendungen : D 1 und P, Q 3. Schritte zur Anpassung eines SARIMA-Modells : 1) Finde d, D so, dass die differenzierte Reihe Y j = (1 B) d (1 B s ) D X j, j Z, ein stationäres Verhalten zeigt (s.o.). ) Finde P, Q so, dass die geschätzten Autokorrelationen ˆρ(sh), h = 1,,..., von {Y j } zum Lag h zu denen einer ARMA(P, Q)-Reihe vergleichbar sind. 3) Finde p, q so, dass ˆρ(1),...,ˆρ(s 1) zu den Autokorrelationen einer ARMA(p, q)- Reihe vergleichbar sind. Zu weiteren Einzelheiten und Beispielen vgl. Brockwell & Davis (1991),

6. Statistische Schätzung von ARIMA Modellen

6. Statistische Schätzung von ARIMA Modellen 6. Statistische Schätzung von ARIMA Modellen Vorschau: ARIMA Modelle Modellidentifikation verschiedene Schätzverfahren Modelldiagnostik Fallstudien Zeitreihenanalyse 1 6.1 ARIMA Modelle Bisher: ARMA(p,q)-Modelle:

Mehr

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

11. Zeitreihen mit Trend und Saisonalität

11. Zeitreihen mit Trend und Saisonalität In diesem Abschnitt geht es um ZR, die in eine Trend-, eine Saisonund eine Restkomponente zerlegt werden können. (Das Niveau sei in der Trendkomponente enthalten.) Beispiele für solche ZR sind in Abb.

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Kointegration. Kapitel 19. Angewandte Ökonometrie / Ökonometrie III Michael Hauser

Kointegration. Kapitel 19. Angewandte Ökonometrie / Ökonometrie III Michael Hauser 1 / 28 Kointegration Kapitel 19 Angewandte Ökonometrie / Ökonometrie III Michael Hauser 2 / 28 Inhalt I(d), Trends, Beispiele Spurious Regression Kointegration, common trends Fehlerkorrektur-Modell Test

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

acf(y) pacf(y) Series y Series y Index ACF Lag Partial ACF Lag

acf(y) pacf(y) Series y Series y Index ACF Lag Partial ACF Lag Aufgabe 47: Parameterschätzung und Modellwahl im ARMA-Modell (Software) Analysieren Sie die in der Datei aufgabe47.txt gegebene Zeitreihe (y t ), t = 1,..., 100. Nehmen Sie an, dass diese Realisation eines

Mehr

5. Zeitreihenanalyse und Prognoseverfahren

5. Zeitreihenanalyse und Prognoseverfahren 5. Zeitreihenanalyse und Prognoseverfahren Stichwörter: Trend, Saisonalität, Noise, additives Modell, multiplikatives Modell, Trendfunktion, Autokorrelationsfunktion, Korrelogramm, Prognosehorizont, Prognoseintervall,

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland

Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland Eine zeitreihenanalytische Untersuchung der Industrieproduktion in Deutschland Klaus Neusser 2. Dezember 2010 Zusammenfassung Ziel dieses Beitrags ist es, den fortgeschrittenen Studierenden eine Einführung

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Interne und externe Modellvalidität

Interne und externe Modellvalidität Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

14 Lineare Differenzengleichungen

14 Lineare Differenzengleichungen 308 14 Lineare Differenzengleichungen 14.1 Definitionen In Abschnitt 6.3 haben wir bereits eine Differenzengleichung kennengelernt, nämlich die Gleichung K n+1 = K n q m + R, die die Kapitalveränderung

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Thema 10 Gewöhnliche Differentialgleichungen

Thema 10 Gewöhnliche Differentialgleichungen Thema 10 Gewöhnliche Differentialgleichungen Viele Naturgesetze stellen eine Beziehung zwischen einer physikalischen Größe und ihren Ableitungen (etwa als Funktion der Zeit dar: 1. ẍ = g (freier Fall;

Mehr

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert.

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Konstante Modelle: In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Der prognostizierte Wert für die Periode T+i entspricht

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Symmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome

Symmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome Proseminar Lineare Algebra SS10 Symmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome Natalja Shesterina Heinrich-Heine-Universität ASymmetrische Polynome Definition 1 Sei n

Mehr

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

4.3 Anwendungen auf Differentialgleichungen

4.3 Anwendungen auf Differentialgleichungen 7 4.3 Anwendungen auf Differentialgleichungen Die Laplace-Transformation wird gerne benutzt, um lineare Differentialgleichungen mit konstanten Koeffizienten y n + a n y n +... + a y + a 0 y ft zu lösen,

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Zusammenfassung Stochastik I + II

Zusammenfassung Stochastik I + II Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Angewandte Ökonometrie Übung. Endogenität, VAR, Stationarität und Fehlerkorrekturmodell

Angewandte Ökonometrie Übung. Endogenität, VAR, Stationarität und Fehlerkorrekturmodell Angewandte Ökonometrie Übung 3 Endogenität, VAR, Stationarität und Fehlerkorrekturmodell Zeitreihenmodelle Zeitreihenmodelle Endogenität Instrumentvariablenschätzung Schätzung eines VARs Tests auf Anzahl

Mehr

4 Modellierung und Prognose mit ARMA, ARIMA und SA- RIMA Modellen

4 Modellierung und Prognose mit ARMA, ARIMA und SA- RIMA Modellen 4 Modellierung und Prognose mit ARMA, ARIMA und SA- RIMA Modellen Ein Problem von großer praktischer Bedeutung ist natürlich die Schätzung der unbekannten Parameter eines ARM A(p, q) Prozesses (mit Mittelwert

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

4.1. Grundlegende Definitionen. Elemente der Analysis I Kapitel 4: Funktionen einer Variablen. 4.2 Graphen von Funktionen

4.1. Grundlegende Definitionen. Elemente der Analysis I Kapitel 4: Funktionen einer Variablen. 4.2 Graphen von Funktionen 4.1. Grundlegende Definitionen Elemente der Analysis I Kapitel 4: Funktionen einer Variablen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 22./29. November 2010 http://www.mathematik.uni-trier.de/

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Analysis und Lineare Algebra mit MuPAD

Analysis und Lineare Algebra mit MuPAD Analysis und Lineare Algebra mit MuPAD Dehling/Kubach Mögliche Themen für Abschlussprojekte 1 Fourier-Reihen Zu einer integrierbaren Funktion f : [0,2π] R definieren wir die Fourier-Reihe wobei a 0 = 1

Mehr

17 Nichtparametrische Schätzer

17 Nichtparametrische Schätzer 17 Nichtparametrische Schätzer In diesem Paragraphen werden kurz einige Möglichkeiten skizziert, auch in nichtparametrischen Modellenzu Schätzern fürinteressierende statistische Größenzugelangen. a Empirische

Mehr

Hauptseminar zum Thema:

Hauptseminar zum Thema: Fakultät Informatik Institut für angewandte Informatik Professur Technische Informationssysteme Hauptseminar zum Thema: Vergleich ARCH- und GARCH- Modelle bei der Analyse von Zeitreihen mit veränderlichen

Mehr

ein stationärer Prozeß (AR(0)). Etwas allgemeiner nimmt man an, daß die d-te Differenz ARMA(p, q) ist, also ist die Differenz

ein stationärer Prozeß (AR(0)). Etwas allgemeiner nimmt man an, daß die d-te Differenz ARMA(p, q) ist, also ist die Differenz Kapitel 4 Nichtstationäre Zeitreihen 4.1 ARIMA-Modelle Die bisher diskutierten ARMA-Modelle sind bei bei geeigneter Wahl der Parameter stationär, d.h. wenn alle Wurzeln der Gleichung φ(λ 1 )=0betragsmäßig

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) 8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer

Mehr

5 Optimale erwartungstreue Schätzer

5 Optimale erwartungstreue Schätzer 33 5 Optimale erwartungstreue Schätzer 5.1 Definition Seien X 1,..., X n reelle Zufallsvariablen, T T (X 1,..., X n ) reellwertige Statistik. T heißt linear : c 1,..., c n R mit T n c j X j 5.2 Satz Seien

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

x A, x / A x ist (nicht) Element von A. A B, A B A ist (nicht) Teilmenge von B. A B, A B A ist (nicht) echte Teilmenge von B.

x A, x / A x ist (nicht) Element von A. A B, A B A ist (nicht) Teilmenge von B. A B, A B A ist (nicht) echte Teilmenge von B. SBP Mathe Grundkurs 1 # 0 by Clifford Wolf # 0 Antwort Diese Lernkarten sind sorgfältig erstellt worden, erheben aber weder Anspruch auf Richtigkeit noch auf Vollständigkeit. Das Lernen mit Lernkarten

Mehr

SBP Mathe Grundkurs 1 # 0 by Clifford Wolf. SBP Mathe Grundkurs 1

SBP Mathe Grundkurs 1 # 0 by Clifford Wolf. SBP Mathe Grundkurs 1 SBP Mathe Grundkurs 1 # 0 by Clifford Wolf SBP Mathe Grundkurs 1 # 0 Antwort Diese Lernkarten sind sorgfältig erstellt worden, erheben aber weder Anspruch auf Richtigkeit noch auf Vollständigkeit. Das

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Modellfall. Orthogonalität trigonometrischer Funktionen. Anwendungen: f : (0, L) R gegeben.

Modellfall. Orthogonalität trigonometrischer Funktionen. Anwendungen: f : (0, L) R gegeben. Modellfall Anwendungen: Fragen: Digitalisierung / digitale Darstellung von Funktionen, insbesondere für Ton- und Bilddaten Digitale Frequenzfilter Datenkompression: Abspeichern der unteren Frequenzen Lösung

Mehr

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität

Mehr

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67 Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

3. Das einfache lineare Regressionsmodell

3. Das einfache lineare Regressionsmodell 3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

n=1 a n mit reellen Zahlen a n einen

n=1 a n mit reellen Zahlen a n einen 4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

27 Taylor-Formel und Taylor-Entwicklungen

27 Taylor-Formel und Taylor-Entwicklungen 136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen

Mehr

2) Wir betrachten den Vektorraum aller Funktionen f(x) = ax 4 +bx 2 +c mit a, b, c R.

2) Wir betrachten den Vektorraum aller Funktionen f(x) = ax 4 +bx 2 +c mit a, b, c R. Übung 6 1) Wir betrachten den Vektorraum aller Funktionen f(x) = ax 4 + bx 2 + c mit a, b, c R und nennen diesen V. Die Vektoren f 1 (x) = 2x 4 + 2x 2 + 2 und f 2 (x) = 3x 4 + x 2 + 4 sind in diesem Vektorraum

Mehr

Flüsse, Fixpunkte, Stabilität

Flüsse, Fixpunkte, Stabilität 1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher

Mehr

Mathematikaufgaben zur Vorbereitung auf das Studium

Mathematikaufgaben zur Vorbereitung auf das Studium Hochschule für Technik und Wirtschaft Dresden (FH) Fachbereich Informatik/Mathematik Mathematikaufgaben zur Vorbereitung auf das Studium Studiengänge Informatik Medieninformatik Wirtschaftsinformatik Wirtschaftsingenieurwesen

Mehr

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. 2.2. POTENZREIHEN 207 2.2 Potenzreihen. Definitionen Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. Eine Potenzreihe mit Entwicklungspunkt x 0 ist eine Reihe a n x x 0 n. Es gilt: es

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen Mathematik für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler Musterprüfung mit Lösungen. Sei T N. (a Unter welchen beiden Voraussetzungen an T garantiert das Induktionsaxiom (nach

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren Länge eines Vektors und Abstand von zwei Punkten Aufgabe Bestimme die Länge des Vektors x. Die Länge beträgt: x ( ) =. Skalarprodukt und Winkel zwischen Vektoren Aufgabe Es sind die Eckpunkte A(; ), B(

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung

Mehr

Musterlösung Höhere Mathematik I/II Di. Aufgabe 1 (11 Punkte) Geben Sie die Matrixbeschreibung der Quadrik

Musterlösung Höhere Mathematik I/II Di. Aufgabe 1 (11 Punkte) Geben Sie die Matrixbeschreibung der Quadrik Aufgabe Punkte Geben Sie die Matrixbeschreibung der Quadrik {x R 3x 3x 8x x +x +4x +7 = 0} an Berechnen Sie die euklidische Normalform der Quadrik und ermitteln Sie die zugehörige Koordinatentransformation

Mehr

Statistische Eigenschaften der OLS-Schätzer, Residuen,

Statistische Eigenschaften der OLS-Schätzer, Residuen, Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Gewöhnliche inhomogene Differentialgleichungen der 1. und 2. Ordnung. Christopher Schael

Gewöhnliche inhomogene Differentialgleichungen der 1. und 2. Ordnung. Christopher Schael Gewöhnliche inhomogene Differentialgleichungen der 1. und. Ordnung 1.1.) Anleitung DGL der 1. Ordnung 1.) DGL der 1. Ordnung In diesem Abschnitt werde ich eine Anleitung zur Lösung von inhomogenen und

Mehr