1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

Ähnliche Dokumente
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Scheinklausur zur Vorlesung Stochastik II

Reelle Zufallsvariablen

Unabhängige Zufallsvariablen

1 Multivariate Zufallsvariablen

2.Tutorium Multivariate Verfahren

Gegenbeispiele in der Wahrscheinlichkeitstheorie

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

4. Verteilungen von Funktionen von Zufallsvariablen

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

70 Wichtige kontinuierliche Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

5 Erwartungswerte, Varianzen und Kovarianzen

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Multivariate Verteilungen

6.1 Definition der multivariaten Normalverteilung

Charakteristische Funktionen

Varianz und Kovarianz

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

1.4 Stichproben aus einer Normalverteilung

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Wichtige Definitionen und Aussagen

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

2 Zufallsvariable und Verteilungsfunktionen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Zusatzmaterial zur Vorlesung Statistik II

1. Grundbegri e der Stochastik

2 Zufallsvariable, Verteilungen, Erwartungswert

Erwartungswert und Varianz von Zufallsvariablen

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Mathematische Ökonometrie

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

7.5 Erwartungswert, Varianz

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

13 Grenzwertsätze Das Gesetz der großen Zahlen

7 Bedingte Erwartungswerte und Bedingte Verteilungen

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Kapitel 12 Erwartungswert und Varianz

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

OLS-Schätzung: asymptotische Eigenschaften

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Stochastik. 1. Wahrscheinlichkeitsräume

Vorlesung 7a. Der Zentrale Grenzwertsatz

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Die Varianz (Streuung) Definition

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

Beispiel 6 (Multivariate Normalverteilung)

Prof. Dr. Fred Böker

Wiederholung: Transformationsformel für Dichten

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Stetige Standardverteilungen

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Wirtschaftsmathematik

Beispiel: Zweidimensionale Normalverteilung I

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Klausur zur Vorlesung Stochastik II

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Die n-dimensionale Normalverteilung

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1.3 Wiederholung der Konvergenzkonzepte

8. Stetige Zufallsvariablen

Kapitel 8: Zufallsvektoren

Zufallsvariablen [random variable]

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

Grundbegriffe der Stochastik II

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Diskrete Zufallsvariablen (Forts.) I

Probeklausur Statistik II

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Biostatistik, Winter 2011/12

Endliche Markov-Ketten - eine Übersicht

3 Grundlagen statistischer Tests (Kap. 8 IS)

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.

A. Grundlagen der Stochastik

A. Grundlagen der Stochastik

7.2 Moment und Varianz

2 Multivariate Normalverteilung

Copula Funktionen. Eine Einführung. Nils Friewald

Übungsblatt 9 (25. bis 29. Juni)

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Stetige Verteilungen, Unabhängigkeit & ZGS

Einführung und Grundlagen

Wahrscheinlichkeit und Statistik: Zusammenfassung

1 Stochastische Konvergenz 2

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen

Asymptotische Stochastik (SS 2010)

Transkript:

Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt EX : EX,...,EX p Erwartungswert oder Erwartungswertvektor von X. Gilt EXj < für alle j, so heißt die p p-matrix ΣX : CovX j,x k j,k p die Varianz-Kovarianzmatrix oder einfach Kovarianzmatrix von X.. Satz Erwartungswert bzw. Kovarianzmatrix besitzen folgende Eigenschaften: a Definiert man als Erwartungswert einer Matrix von Zufallsvariablen die Matrix der Erwartungswerte, so ist ΣX E X EX X EX E X X EX EX. b Ist A eine s p-matrix und b R s, so gilt EAX + b AEX + b und ΣAX + b AΣXA. c ΣX ist symmetrisch und positiv semidefinit. Beweis: Teil a und die erste Aussage in b ergeben sich unmittelbar durch komponentenweises Lesen. Aus Σ AX + b E AX + b EAX + b AX + b EAX + b E AX EX AX EX folgt die zweite Aussage in b. E AX EX X EX A Offensichtlich ist ΣX symmetrisch. Nach Teil b gilt für einen beliebigen Vektor c R p : c ΣXc Σc X V arc X 0. Dies ist gleichbedeutend mit der positiven Semidefinitheit von ΣX.

Die multivariate Normalverteilung Die multivariate Normalverteilung Es sei X,...,X p iid N0,. Die gemeinsame Dichte von X X,...,X p ist f X x f Xj x j exp π p/ π. x x exp p/ x +... + x p Man sagt, X habe eine p-dimensionale Standardnormalverteilung. Dabei gilt EX 0,...,0 und ΣX I p. Die charakteristische Funktion von X ist ϕ X t E e it X E e it jx j ϕ Xj t j exp t j exp t, t R p.. Definition Sei A eine p p-matrix und µ R p. Definiert man mit einem p- dimensional standardnormalverteilten Zufallsvektor X Y µ + AX, so hat Y nach Satz. b Erwartungswert µ und Kovarianzmatrix C AA. Die charakteristische Funktion von Y ist ϕ Y t ϕ AX+µ t e it µ ϕ X A t e it µ exp A t e it µ exp t Ct. Die charakteristische Funktion von Y hängt nur von µ und C, nicht aber von der speziellen Form der Matrix A ab. Nach dem Satz von Radon-Herglotz-Cramér-Wold gilt dies dann auch für die Verteilung von Y. Diese eindeutig bestimmte Verteilung nennt man p-dimensionale Normalverteilung mit Erwartungswertvektor µ und Kovarianzmatrix C und bezeichnet sie mit N p µ,c oder einfach Nµ,C, wenn die Dimension fest ist. Ist C positiv definit dies gilt, falls C oder gleichbedeutend A existieren, so kann man mit Hilfe des Transformationssatzes für Dichten zeigen, dass die Dichte von Y durch f Y y exp π p/ detc / y µ C y µ, y R p,

Die multivariate Normalverteilung gegeben ist. Ist dagegen A nicht invertierbar, so existiert keine gemeinsame Dichte von Y ; in diesem Fall ist Y ist mit Wahrscheinlichkeit auf einer Hyperebene im R p der Dimension r RangC < p definiert.. Satz Der p-dimensionale Zufallsvektor Y ist genau dann p-dimensional normalverteilt, wenn a Y für jedes a R p eindimensional normalverteilt ist. Dabei wird eine Einpunktverteilung als ausgeartete Normalverteilung mit Varianz 0 aufgefasst. Beweis: i Es gelte Y N p µ,c. Unter Verwendung von ist die charakteristische Funktion von a Y gegeben durch ϕ a Y t ϕ Y t a exp ita µ t a Ca, t R. Dies ist die charakteristische Funktion einer eindimensionalen Na µ,a Ca-Verteilung. ii Sind umgekehrt alle a Y normalverteilt, so folgt mit µ : EY und C : ΣY Ea Y a µ und V ara Y a Ca. Somit besitzt Y die charakteristische Funktion ϕ Y a ϕ a Y exp ia µ a Ca, a R p. Also ist Y N p µ,c-verteilt..3 Satz Y Y,...,Y p sei N p µ,c-verteilt. a Ist B eine q p-matrix und b R q, so gilt BY + b N q Bµ + b,bcb. b Y,...,Y p sind genau dann stochastisch unabhängig, wenn C c ij eine Diagonalmatrix ist, d.h. wenn c ij 0 für alle i j gilt. 3

Die multivariate Normalverteilung Beweis: a Für jedes a R q ist a BY + b B a Y + a b nach Satz. eindimensional normalverteilt, woraus aus demselben Satz folgt, dass BY + b q-dimensional normalverteilt ist. Erwartungswert und Kovarianzmatrix ergeben sich aus Satz.. b Aus der Unabhängigkeit folgt die Unkorreliertheit der Randverteilungen, zu zeigen bleibt die Umkehrung. Ist C diagc,...,c pp, so erhält man als charakteristische Funktion ϕ Y t exp it µ exp t Ct exp it j µ j exp c jjt j ϕ Yj t j. Dies ist aber die zur gemeinsamen Verteilung von p unabhängigen normalverteilten Zufallsvariablen gehörende charakteristische Funktion; aus dem Eindeutigkeitssatz für charakteristische Funktionen folgt somit die Behauptung..4 Bemerkung Der Zufallsvektor Y Y,...,Y r,y r+,...,y r+s mit r + s p sei p-dimensional normalverteilt. Ähnlich wie in Satz.3 läßt sich dann zeigen: Y,...,Y r und Y r+,...,y r+s sind genau dann unabhängig, falls CovY j,y k 0 gilt für alle j,...,r und k r +,...,r + s gilt..5 Folgerung a Ist Y N p µ,c-verteilt, so besitzt jede Auswahl Y i,...,y ik von Y eine multivariate Normalverteilung. Bezeichnet σi das i-te Diagonalelement von C, so gilt insbesondere Y i Nµ i,σi. b Sind X und Y stochastisch unabhängig mit X N p µ,c und Y N p ν,t, so gilt: X + Y N p µ + ν,c + T. 4

3 Der multivariate Zentrale Grenzwertsatz Beweis: Teil a ergibt sich, indem man die Matrix B in Satz.3 a geeignet wählt. Nach Bemerkung.4 gilt für die gemeinsame Verteilung von X und Y X µ C 0 N p,. Y ν 0 T Die Behauptung folgt nun wiederum aus Satz.3 a, wenn man dort B I p,i p R p p und b 0 wählt. 3 Der multivariate Zentrale Grenzwertsatz Im R p kann die Verteilungskonvergenz wie im Eindimensionalen definiert werden: Sind X,X,X,... p-dimensionale Zufallsvektoren mit Verteilungsfunktionen F,F,F,..., so konvergiert die Folge X n n in Verteilung schwach gegen X, falls lim F nx Fx n für jede Stetigkeitsstelle x von F gilt. Man schreibt wieder X n D X. 3. Satz Sei X n eine Folge unabhängiger und identisch verteilter p-dimensionaler Zufallsvektoren mit E X <. Bezeichnen µ EX den Erwartungswert und C ΣX die Kovarianzmatrix von X, so gilt n X j nµ n D N p 0,C. 5