Prof. Dr. Fred Böker

Ähnliche Dokumente
2.1 Gemeinsame-, Rand- und bedingte Verteilungen

6.1 Definition der multivariaten Normalverteilung

5 Erwartungswerte, Varianzen und Kovarianzen

Klausur zur Vorlesung Multivariate Verfahren, SS Kreditpunkte, 90 min

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Vorlesung 8a. Kovarianz und Korrelation

Risikomessung und Value at Risk Wintersemester 2013/14

Varianz und Kovarianz

3.6 Eigenwerte und Eigenvektoren

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

7.2 Moment und Varianz

Kenngrößen von Zufallsvariablen

Copula Funktionen. Eine Einführung. Nils Friewald

1 Gemischte Lineare Modelle

Übungsblatt 9. f(x) = e x, für 0 x

Zufallsvariablen [random variable]

Wahrscheinlichkeitstheorie und Statistik vom

Die Varianz (Streuung) Definition

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

Tutorium Mathematik II, M Lösungen

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

Proseminar Lineare Algebra II, SS 11. Blatt

Kapitel 6. Lineare Algebra in R. Vorlesung Programmieren in statistischer Software: R Sommersemester 2009

Aufgabe 1: Bestimmen Sie Zahlen a b. ,, für die. = b. und gleichzeitig a + b + 1 = 0 gilt. Lösung zu Aufgabe 1:

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Der CG-Algorithmus (Zusammenfassung)

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Mathematischer Vorkurs Lösungen zum Übungsblatt 5

Rückblick auf die letzte Vorlesung. Bemerkung

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

3. Übungsblatt Aufgaben mit Lösungen

Quantitatives Risikomanagement

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Beispiel: Zweidimensionale Normalverteilung I

Mathematische Ökonometrie

4. Übungsblatt zur Mathematik I für Maschinenbau

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

6 Eigenwerte und Eigenvektoren

Univariates Datenmaterial

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Kapitel 5. Faktorenanalyse. 5.1 Einführung. 5.2 Das Modell der Faktorenanalyse

MC-Serie 11: Eigenwerte

Iterative Verfahren, Splittingmethoden

Zeitreihenökonometrie

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Statistik II für Betriebswirte Vorlesung 12

Angewandte Ökonometrie Übung. Endogenität, VAR, Stationarität und Fehlerkorrekturmodell

( ) Lineare Gleichungssysteme

Kapitel 4. Hauptkomponentenanalyse. 4.1 Einführung. 4.2 Herleitung der Hauptkomponenten

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Brückenkurs Mathematik

Aufgaben zu Kapitel 38

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Ü b u n g s b l a t t 13

5 Optimale erwartungstreue Schätzer

Faktorenanalyse Beispiel

2 Zufallsvariable, Verteilungen, Erwartungswert

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

9 Vektorräume mit Skalarprodukt

Eigenwerte und Eigenvektoren von Matrizen

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

17. Januar Ruhr-Universität Bochum. Methodenlehre III, WS 2010/2011. Prof. Dr. Holger Dette. 1. Matrizenrechnung. 2.

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Übungsaufgaben Vektoren

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Statistik, Datenanalyse und Simulation

6 Hauptachsentransformation

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen III / Marktpreisrisiken Dr. Klaus Lukas Stefan Prasser

MAT Lineare Algebra, SS 07 Prof. Joachim Rosenthal Lösung zu Übungsblatt 7

9.2 Invertierbare Matrizen

Ergänzungsmaterial zur Vorlesung. Statistik 2. Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen

Eine zweidimensionale Stichprobe

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

2. Übung zur Vorlesung Statistik 2

1. Übungsblatt zu Wahrscheinlichkeitsrechnung und Statistik in den Ingenieurswissenschaften

1 Singulärwertzerlegung und Pseudoinverse

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lineare Algebra II 6. Übungsblatt

Determinanten. a e b f a c b d. b) x = , y = c) zu einem Spaltenvektor das Vielfache des anderen Spaltenvektors addiert wird,

Grundbegriffe der Wahrscheinlichkeitsrechnung

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Transkript:

Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung a) Berechnen Sie die Varianz von ax 1 + bx 2. Leiten Sie daraus eine Bedingung für die Kovarianzmatrix von X 1 X 2 ab, wenn a b nicht beide null sind. Beachten Sie, dass eine Varianz grsätzlich nichtnegativ ist nur dann Null ist, wenn die Zufallsvariable degeneriert, d.h. konstant ist. Lösung: V ar(ax 1 + bx 2 ) = E ( (ax 1 + bx 2 ) 2) (E(aX 1 + bx 2 )) 2 = E ( a 2 X1 2 + 2abX 1X 2 + b 2 X2 2 ) (aµ1 + bµ 2 ) 2 = a 2 E(X 2 1 ) a2 µ 2 1 + b2 E(X 2 2 ) b2 µ 2 + 2abE(X 1 X 2 ) 2abµ 1 µ 2 = a 2 V ar(x 1 ) + b 2 V ar(x 2 ) + 2abCov(X 1, X 2 ) = a 2 σ 11 + b 2 σ 22 + 2abσ 12 Da die Varianz einer nicht degenerierten Zufallsvariablen größer als 0 ist, muss gelten: a 2 σ 11 + b 2 σ 22 + 2abσ 12 > 0 Diese Bedingung bedeutet, dass die Kovarianzmatrix positiv definit sein muss. b) Geben Sie ein Beispiel einer symmetrischen 2 2 Matrix mit positiven Diagonalelementen an, die nicht Kovarianzmatrix sein kann, da sie die Bedingung aus a) nicht erfüllt. Lösung: Eine Matrix ist positiv definit, wenn alle Hauptabschnittsdeterminanten, also insbesondere die Determinante selbst, positiv sind. Betrachten wir die Matrix ( ) 1 2 A = 2 1 Die Matrix ist symmetrisch. Die Elemente der Hauptdiagonalen (das wären die Varianzen) sind positiv. Die Determinante ist 1 1 2 2 = 3. Also ist sie nicht positiv definit. Oder anders: wenn A eine Kovarianzmatrix wäre, so wäre die Varianz von X 1 X 2 nach der Formal aus a) mit a = 1 b = 1: 1 + 1 2 2 = 2 das kann nicht sein. Man kann diese oder eine andere ähnliche Matrix auf die folgende Weise finden: Zunächst wählen wir die beiden Varianzen, die in der Hauptdiagonalen stehen, möglichst einfach aus, z.b. σ 11 = σ 22 = 1. Dann wählen wir a b möglichst einfach aus, z.b. a = 1 b = 1, d.h. wir betrachten die Linearkombination ax 1 + bx 2 = X 1 X 2. Nach a) muss dann σ 11 + σ 22 + 2abσ 12 = 2 2σ 12 = 2(1 σ 12 ) > 0 sein. Diese Bedingung ist verletzt, wenn σ 12 > 1 ist, also verletzt die obige Matrix diese Bedingung. Aufgabe 2 Die Zufallsvariablen X 1,..., X T seien gemeinsam multivariat normalverteilt mit der Kovarianzmatrix 1 ρ ρ 2 ρ 3... ρ T 1 ρ 1 ρ ρ 2... ρ T 2 Σ = σ 2 ρ 2 ρ 1 ρ ρ 2......... ρ T 1 ρ T 2... ρ 2 ρ 1

2 8. Übungsblatt Statistik III WS 2004/2005: Lösungen a) Man kann die Realisationen von (X 1,..., X T ) t als Beobachtungen von Zufallsvariablen über die Zeitpunkte 1 bis T auffassen (z.b. Aktienkurse). Interpretieren Sie in diesem Zusammenhang die obige Kovarianzmatrix Σ. Lösung: Alle Zufallsvariablen haben die gleiche Varianz σ 2. Die in den Klammern angegebene Matrix ist also die Korrelationsmatrix. Die Korrelation zwischen zwei Variablen nimmt also mit wachsendem Abstand ab. b) Interpretieren Sie genauso die Kovarianzmatrix 1 θ 0 0... 0 θ 1 θ 0... 0 Σ = σ 2 0 θ 1 θ 0......... 0 0... 0 θ 1 Lösung: In diesem Beispiel sind nur die Variablen zu benachbarten Zeitpunkten korreliert. Sind die Zeitabstände größer als zwei Zeiteinheiten, so sind die Variablen unkorreliert. Aufgabe 3 Seien Y 1, Y 2, Y 3 unabhängige Zufallsvariablen mit Varianz 1. Sei Z 1 = Y + Y 3 ; Z 2 = Y 1 Y 2 ; Z 3 = Y 1 Y 3. a) Berechnen Sie die Kovarianz- Korrelationsmatrix von Z, wenn Z t = (Z 1, Z 2, Z 3 ). Sie dürfen dabei ohne Beschränkung der Allgemeinheit voraussetzen, dass E(Y i ) = 0 gilt. (Warum?) Lösung: Wir setzen voraus, dass E(Y i ) = 0 gilt, anderfalls ersetze man Y i durch Y i E(Y i ). Dies ist zulässig, da sich die Varianzen Kovarianzen bei diesem Übergang nicht verändern. Unter dieser Voraussetzung ist: V ar(y i ) = E(Yi 2) Cov(Y i, Y j ) = E(Y i Y j ) = 0, falls i j. Nun gilt auch EZ i = 0 damit V ar(z i ) = EZi 2 Cov(Z i, Z j ) = E(Z i Z j ). Nun ist: V ar(z 1 ) = E ( (Y + Y 3 ) 2) = E(Y 2 2 + Y 2 3 ) = 3 Dabei wurde benutzt, dass E(Y i Y j ) = 0, falls i j. Ebenso folgt: Ferner ist V ar(z 2 ) = E ( (Y 1 Y 2 ) 2) = E(Y 2 2 ) = 2 V ar(z 3 ) = E ( (Y 1 Y 3 ) 2) = E(Y 2 3 ) = 2 Cov(Z 1, Z 2 ) = E ((Y + Y 3 )(Y 1 Y 2 )) = E(Y 2 1 Y 2 2 ) = 0 Dabei wurde wieder benutzt, dass E(Y i Y j ) = 0, falls i j. Ebenso folgt: Cov(Z 1, Z 3 ) = E ((Y + Y 3 )(Y 1 Y 3 )) = E(Y 2 1 Y 2 3 ) = 0 Damit ist die Kovarianzmatrix: die Korrelationsmatrix ist: Cov(Z 2, Z 3 ) = E ((Y 1 Y 2 )(Y 1 Y 3 )) = E(Y 2 1 ) = 1 Σ = P = 3 0 0 0 2 1 1 0 0 0 1 1/2 0 1/2 1

Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 3 b) Sei Y eine m-dimensionale Zufallsvariable mit Kovarianzmatrix Σ A sei eine m p-matrix. Dann gilt V ar(a t Y) = A t ΣA. Wenden Sie dieses Resultat auf Teilaufgabe a) an, indem Sie zunächst die Matrix A bestimmen, so dass Z = A t Y gilt. Lösung: Setzt man Z = A t Y, so folgt für die Matrix A: A = 1 1 1 1 1 0 1 0 1 Es gilt A t = A. Die Kovarianzmatrix von Y ist die Einheitsmatrix. Daher ist V ar(z) = V ar(a t Y ) = A t A = 3 0 0 0 2 1 c) Nehmen Sie als Verteilung von Y i an: Y i N(0, 1). Simulieren Sie mit der Funktion mvrnorm aus der Library MASS 1000 Realisationen des Vektors Z stellen Sie diese drei Variablen mit dem Befehl pairs grafisch dar. Lösung: Die R-Befehle sind library(mass) Sigma<-matrix(c(3,0,0,0,2,1,0,1,2),nrow=3,byrow=T) pairs(mvrnorm(1000,c(0,0,0),sigma)) Die Ausgabe sieht dann etwa so aus: var 1 4 0 2 4 6 var 2 var 3 4 0 2 4 6 Man erkennt, dass die Variable 1 mit den Variablen 2 3 unkorreliert ist, während zwischen 2 3 eine Korrelation besteht. d) Bestimmen Sie die Eigenwerte der Kovarianzmatrix von Z (zunächst nicht mit R).

4 8. Übungsblatt Statistik III WS 2004/2005: Lösungen Lösung: Zu lösen ist die Gleichung det(σ λi) = 0. Dabei ist 3 0 0 Σ = 0 2 1 die Kovarianzmatrix von Z somit 3 λ 0 0 0 2 λ 1 λ Damit gilt det(σ λi) = (3 λ) ((2 λ)(2 λ) 1) Die Determinante ist Null, wenn 3 λ = 0, d.h. λ = 3 oder (2 λ)(2 λ) 1 = 4 4λ λ 2 1 = 0, d.h. λ = 3 oder λ = 1. Die Eigenwerte sind also: λ 1 = 3, λ 2 = 3, λ 3 = 1. e) Bestimmen Sie die zugehörigen Eigenvektoren. Lösung: Zu lösen ist für jeden der Eigenwerte das Gleichungssystem Für λ = 3 ist (Σ λi)c = 0 Das Gleichungssystem ist also mit c t = (c 1, c 2, c 3 ): 0 0 0 0 1 1 0 1 1 c 2 + c 3 = 0 c 2 c 3 = 0 Daraus folgt c 2 = c 3, während c 1 frei wählbar ist. Eine normierte Lösung wäre c t 1 = (1, 0, 0). Wir brauchen eine zweite Lösung, da λ 2 auch 3 ist. Diese Lösung muss orthogonal zur ersten sein. Eine weitere normierte Lösung ist c t 2 = (0, 1/ 2, 1/ 2). Für λ = 1 ist Das Gleichungssystem ist also mit c t = (c 1, c 2, c 3 ): 2 0 0 0 1 1 0 1 1 c 1 = 0 c 2 + c 3 = 0 c 2 + c 3 = 0 Daraus folgt c 1 = 0, c 2 = c 3. Eine normierte Lösung ist c 3 t = (0, 1/ 2, 1/ 2). Diese Lösung ist orthogonal zu den beiden anderen Eigenvektoren. f) Bestimmen Sie die Eigenwerte der Korrelationsmatrix die zugehörigen Eigenvektoren. Lösung: Die Eigenwerte sind λ 1 = 1.5, λ 2 = 1, λ 3 = 0.5 die Eigenvektoren sind c 1 t = (0, 1/ 2, 1/ 2) c 2 t = (1, 0, 0) c 3 t = (0, 1/ 2, 1/ 2) g) Überprüfen sie Ihre Ergebnisse mit der R-Funktion eigen. Lösung: Für die Bestimmung der Eigenwerte der Korrelationsmatrix sind die Befehle: Korr<-matrix(c(1,0,0,0,1,1/2,0,1/2,1),byrow=T,nrow=3) eigen(korr) Die Ausabe ist dann:

Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 5 $values [1] 1.5 1.0 0.5 $vectors [,1] [,2] [,3] [1,] 0.0000000 1 0.0000000 [2,] 0.7071068 0 0.7071068 [3,] 0.7071068 0-0.7071068 Aufgabe 4 Leiten Sie die in der Vorlesung für die bivariate Normalverteilung angegebenen Resultate E(Y 1 Y 2 = y 2 ) = µ 1 + ρ σ 1 σ 2 (y 2 µ 2 ) Var(Y 1 Y 2 = y 2 ) = σ 2 1(1 ρ 2 ) aus den ebenfalls dort angegebenen allgemeinen Formeln für die multivariate Normalverteilung her. Lösung: Im multivariaten Fall war die Aufteilung: ( ) X1 X = mit X 1 ein (q 1) Vektor q < p X 2 Entsprechende Aufteilungen gelten für den Erwartungswertvektor die Kovarianzmatrix: µ = ( µ1 µ 2 ) ( ) Σ11 Σ Σ = 12 Σ 21 Σ 22 Im bivariaten Fall ist X 1 = Y 1 X 2 = Y 2 µ 1 = µ 1 µ 2 = µ 2. Ferner ist: Σ 11 = σ 11 = σ 2 1, Σ 12 = σ 12 = ρσ 1 σ 2, Σ 21 = σ 12 = ρσ 1 σ 2, Σ 22 = σ 22 = σ 2 2. Laut Skript gilt für die bedingte Erwartung Varianz: Im bivariaten Fall ist das: E(X 1 X 2 = x 2 ) = µ 1 + Σ 12 Σ 1 22 (x 2 µ 2 ) V ar(x 1 X 2 = x 2 ) = Σ 11 Σ 12 Σ 1 22 Σ 21 E(Y 1 Y 2 = y 2 ) = µ 1 + σ 12 (y 2 µ 2 ) = µ 1 + ρ σ 1σ 2 (y 2 µ 2 ) = µ 1 + ρ σ 1 (y 2 µ 2 ) σ 22 σ 2 V ar(x 1 X 2 = x 2 ) = Σ 11 Σ 12 Σ 1 22 Σ 21 = σ 11 σ 12 σ 1 22 σ 21 = σ 2 1 ρ2 σ2 1 σ2 2 σ 2 2 σ 2 2 = σ 2 1 (1 ρ2 )