6.1 Definition der multivariaten Normalverteilung

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "6.1 Definition der multivariaten Normalverteilung"

Transkript

1 Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer Parameter von grundlegender Bedeutung für weitere Verfahren ist. Außerdem sind einige aus ihr abgeleitete Verteilungen von Bedeutung. 6.1 Definition der multivariaten Normalverteilung Sei Y eine m-dimensionale Zufallsvariable mit EY = µ und VarY = Σ. Wenn a ein m 1-Vektor von Konstanten ist, so ist U = a t Y eine eindimensionale Zufallsvariable. Es gilt nach Formel 2.2 und 2.3 EU = a t µ und VarU = a t Σa. Wir nennen U eine Linearkombination von Y. Aus dem Vektor Y wird durch das lineare Funktional U = a t Y ein Skalar. Nun besagt ein Resultat von Cramer und Wold, dass die Verteilung einer m-dimensionalen Zufallsvariablen vollständig bestimmt ist durch die eindimensionalen Verteilungen aller Linearkombinationen, die man mit den Komponenten von Y bilden kann. Wir können jetzt eine neue Definition der multivariaten Normalverteilung geben, die allgemeiner ist als die in Gleichung 2.9. Eine m-dimensionale Zufallsvariable Y hat eine multivariate Normalverteilung, wenn alle Linearkombinationen von Y eine univariate Normalverteilung besitzen. Jede Komponente des Vektors Y ist eine Linearkombination von Y, so ist zum Beispiel Y 1 = [1, 0,...,0]Y. Daher existiert der Erwartungswertvektor µ, da die Komponenten von µ Erwartungswerte univariater Zufallsvariablen sind. Ferner existiert auch die Kovarianzmatrix Σ, da deren Elemente die Varianzen einer bzw. die Kovarianzen zweier univariater Zufallsvariablen sind. Wir haben auf S. 18 gesehen, dass Σ positiv semidefinit ist. Unsere jetzige Definition der multivariaten Normalverteilung verlangt keine weiteren Bedingungen für Σ. Jedoch verlangt die Dichtefunktion der multivariaten Normalverteilung in Gleichung 2.9 die Existenz von Σ 1, d.h. Σ muss vollen Rang haben und damit positiv definit sein. Eine multivariate Normalverteilung, für die Σ 1 nicht existiert, heißt eine singuläre oder degenerierte Normalverteilung und besitzt keine Dichtefunktion. Eine unmittelbare Folgerung aus der Definition der multivariaten Normalverteilung ist, dass eine multivariate Normalverteilung bei einer linearen Transformation erhalten bleibt. Sei A 82

2 6.1. DEFINITION DER MULTIVARIATEN NORMALVERTEILUNG 83 eine m p Matrix von Konstanten und W = A t Y, dann ist W N p A t µ; A t ΣA, 6.1 da jede Linearkombination von W eine Linearkombination von Y ist und daher normalverteilt ist. Der Erwartungswert und die Varianz folgen aus Gleichung 2.2 und 2.3. Im univariaten Fall konnten wir jede beliebige Normalverteilung auf die Standardnormalverteilung transformieren. Wir geben jetzt eine äquivalente Transformation zwischen einem Zufallsvektor Y N m µ; Σ und einem zufälligen Vektor U, dessen Komponenten unabhängig und standardnormalverteilt sind, so dass U N p 0; I p, wobei p = RangΣ und I p ist eine p-dimensionale Einheitsmatrix. Nehmen wir zunächst an, dass Σ vollen Rang besitzt. Dann gibt es eine nichtsinguläre m m-matrix B, so dass Σ = BB t. Man könnte z.b. siehe Gleichung 4.15 Σ = AΛA t = AΛ }{{ 1/2 } Λ} 1/2 {{ A} t verwenden. Dabei ist A die Matrix, deren Spalten die Eigenvektoren von Σ B B t sind, und Λ ist die Diagonalmatrix der Eigenwerte von Σ. Die Matrix B ist somit die Matrix der Komponentenladungen C = AΛ 1/2 siehe S. 49. Betrachten wir jetzt die Transformation Y µ = BU. Wenn U N m 0; I, dann gilt nach Gleichung 6.1 Y µ N m 0; BB t und daher Y N m µ; Σ. Da B 1 existiert, ist die inverse Transformation gegeben durch: U = B 1 Y µ. Wenn Y N m µ; Σ, dann gilt EU = 0 VarU = B 1 ΣB 1 t nach Gleichung 6.1 = B 1 BB t B t 1 = I m Damit gilt U N0; I m. Es sei angemerkt, dass die Matrix B nicht eindeutig ist, so dass es viele solche Transformationen gibt. Nehmen wir jetzt an, dass Σ nicht von vollem Rang ist. Wir brauchen das folgende Argument aus der Matrix-Algebra: Sei Σ eine symmetrische, positiv semidefinite reelle Matrix vom Rang p < m. Dann gibt es eine nichtsinguläre quadratische Matrix P, so dass PΣP t = Ip Schreiben wir P = P1 P 2 für eine p m Matrix P 1, so muss P 1 notwendigerweise Rang p haben. Es folgt, dass P 1 ΣP t 1 = I p. Setzt man Q := P 1 und teilt man Q = [Q 1, Q 2 ], wobei Q 1 eine m p-matrix mit Rang p ist, so gilt mit Gleichung 6.2 Σ = Q Ip Q t = [Q 1, Q 2 ] Ip Q t 1 Q t 2 = Q 1 Q t 1

3 84 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG Nach diesem Resultat existieren für ein gegebenes Σ vom Rang p Matrizen P 1 und Q 1, so dass Σ = Q 1 Q t 1 und P 1 ΣP t 1 = I p. Wenn dann U N p 0; I wird durch die Transformation Y µ = Q 1 U ein m-dimensionaler Vektor definiert, dessen Komponenten Linearkombinationen von U sind, so dass Y N m µ; Q 1 Q t 1. Wir sagen dann, dass Y verteilt ist wie N m µ; Σ vom Rang p und schreiben Y N m µ; Σ. Wenn umgekehrt: Y N m µ; Σ, dann wird durch die Transformation U = P 1 Y µ ein p-dimensionaler Vektor definiert, dessen Komponenten Linearkombinationen von Y µ sind, so dass U N p 0; P 1 ΣP t 1, d.h. U N p0; I. Für die obigen Transformationen können wir die in den Gleichungen 4.7 und 4.8 gegebene kanonische Darstellung von Σ benutzen. Wenn Λ die Diagonalmatrix der von Null verschiedenen Eigenwerte ist und A die m p-matrix vom Rang p der zugehörigen Eigenvektoren in den Spalten, dann erfüllen P 1 = Λ 1/2 A t und Q 1 = AΛ 1/2 die obigen Bedingungen. Wenn Σ vollen Rang hat, ist A die m m-matrix der Eigenvektoren, P 1 = P = Λ 1/2 A t und Q 1 = Q = P 1 = B. Die Methode ist dann eine Hauptkomponentenanalyse, so dass die transformierten Variablen die Varianz 1 haben siehe S. 49. Wir fassen die obigen Resultate so zusammen: Satz 6.1 Y N m µ; Σ mit Rang p m gilt genau dann, wenn Y = µ + BU, wobei U N p 0; I, BB t = Σ und B ist eine m p-matrix vom Rang p. Folgerung 6.1 Wenn Σ vollen Rang hat, ist B eine m m-matrix mit vollem Rang und wir können dann schreiben: U = B 1 Y µ. Wenn Y eine singuläre Verteilung vom Rang p < m hat, dann können die Komponenten von Y µ als Linearkombinationen von p unabhängigen standardnormalverteilten Zufallsvariablen dargestellt werden. Eine Möglichkeit, eine geeignete Transformation zu finden, basiert auf den Eigenwerten und Eigenvektoren von Σ. Die m p Eigenwerte, die Null sind, implizieren m p lineare Relationen zwischen den Komponenten von Y. Für ein Beispiel einer ausgearteten Verteilung betrachten Sie einen Vektor Y, dessen Komponenten aus der Länge, Breite und dem Umfang eines zufälligen Rechtecks bestehen. Dann gilt zwischen den drei Komponenten dieses Vektors die lineare Beziehung 2Y 1 +2Y 2 Y 3 = 0. Obwohl wir einen dreidimensionalen Vektor haben, ist die Variation in Wirklichkeit zweidimensional und RangΣ = 2. Hätten wir Radius, Durchmesser und Umfang eines zufälligen Kreises, so gäbe es zwei lineare Beziehungen zwischen den Komponenten und die effektive Dimension dieses dreidimensionalen Vektors wäre 1. Wenn Σ vollen Rang hat, hat Y eine Dichtefunktion, wie sie in Kapitel 2.3 definiert wurde. 6.2 Eigenschaften der multivariaten Normalverteilung a Wenn Y N m µ, Σ vom Rang m, so dass Σ 1 existiert, dann gilt:

4 6.2. EIGENSCHAFTEN DER MULTIVARIATEN NORMALVERTEILUNG 85 Y µ t Σ 1 Y µ χ 2 m 6.3 Dies ist eine Verallgemeinerung der bekannten Tatsache, dass das Quadrat einer standardnormalverteilten Zufallsvariablen χ 2 1-verteilt ist. Insbesondere gilt für m = 1, dass [Y µ/σ] 2 χ 2 1. Nach Folgerung 6.1 können wir schreiben: U = B 1 Y µ mit BB t = Σ und U N0; I. Dann ist U t U = m Uj 2, wobei die U j unabhängige standardnormalverteilte Zufallsvariablen sind. Folglich ist U t U χ 2 m-verteilt. Andererseits gilt aber: U t U = Y µ t B 1 t B 1 Y µ = Y µ t Σ 1 Y µ Damit folgt das obige Resultat. Subtrahiert man in Gleichung 6.3 nicht den Erwartungswertvektor µ, sondern z.b. µ 0 µ, so erhält man anstelle der zentralen χ 2 -Verteilung eine nichtzentrale χ 2 - Verteilung mit Nichtzentralitätsparameter δ 2 = µ µ 0 t Σ 1 µ µ 0. Wir werden jetzt zeigen, dass die Randverteilungen und die bedingten Verteilungen einer multivariaten Normalverteilung wieder Normalverteilungen sind. Zur Vereinfachung nehmen wir an, dass Y folgendermaßen aufgeteilt ist evtl. muss man vorher die Variablen umordnen: j=1 Y = Y 1 Y 2 mit Y 1 ein q 1 Vektor q < m Entsprechende Aufteilungen gelten für den Erwartungswertvektor und die Kovarianzmatrix: µ = µ1 µ 2 Σ = Σ11 Σ 12 Σ 21 Σ 22 Dabei sind Σ 11 und Σ 22 symmetrische positiv semidefinite q q bzw. m q m q- Matrizen und Σ 12 = Σ t 21 sind q m q-matrizen. b Die Randverteilung von Y 1 ist N q µ 1 ; Σ 11. Die multivariate Normalverteilung von Y 1 folgt aus der Tatsache, dass Linearkombinationen von Y 1 auch Linearkombinationen von Y sind und damit univariate Normalverteilungen haben. c Y 1 und Y 2 sind genau dann unabhängig verteilt, wenn Σ 12 = 0. d Wenn Σ 22 vollen Rang hat, so dass Σ 1 22 existiert, ist die bedingte Verteilung von Y 1, gegeben Y 2 = y 2 eine multivariate Normalverteilung mit: EY 1 Y 2 = y 2 = µ 1 + Σ 12 Σ 1 22 y 2 µ 2 VarY 1 Y 2 = y 2 = Σ 11 Σ 12 Σ 1 22 Σ 21 Wir betrachten den Spezialfall q = 1. Dann ist Y 1 = Y 1 die erste Komponente von Y, also eine univariate Zufallsvariable. Dann ist

5 86 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG EY 1 Y 2 = y 2 = µ 1 + Σ 12 Σ 1 22 y 2 µ Nun ist aber Σ 12 Σ 1 22 eine 1 m 1-Matrix, also ein Zeilenvektor, d.h. Gleichung 6.4 hat die Gestalt EY 1 Y 2 = y 2 = µ 1 + β 2 y 2 µ β m y m µ m 6.5 wenn wir die Elemente dieses Vektors mit β 2,..., β m bezeichnen. Gleichung 6.5 ist die Regressionsfunktion von Y 1 auf Y 2,..., Y m. Für die bedingte Varianz haben wir dann VarY 1 Y 2 = y 2 = σ 11 Σ 12 Σ 1 22 Σ Für die bedingte Varianz kann man zeigen siehe z.b. Chatfield und Collins, 1991, S. 99, auch Rinne, 2000, S. 49, dass VarY 1 Y 2 = y 2 = 1 σ gilt. Dabei ist σ 11 das 1, 1-te Element der Inversen Σ 1. Das bedeutet: die bedingte Varianz ist eine Konstante, die nicht von y 2 abhängt. Gleichung 6.6 impliziert eine Zerlegung σ 11 = Σ 12 Σ 1 22 Σ 21 + VarY 1 Y 2 = y der unbedingten Varianz, VarY 1 = σ 11 in Σ 12 Σ 1 22 Σ 21 die Varianz der Regressionsfunktion der bedingten Erwartungswerte um den unbedingten Erwartungswert µ 1 und die Restvarianz VarY 1 Y 2 = y 2, die Varianz um die Regressionsfunktion vergleiche S. 28, wo wir die Zerlegung der SQTotal in SQRegression und SQResiduale betrachtet haben. Die Matrix Σ 12 Σ 1 22 ist im allgemeinen Fall q beliebig eine q m q-matrix von Regressionskoeffizienten. Die j-te j q Zeile besteht aus den Regressionskoeffizienten für die Regression von Y j auf Y q+1, Y q+2,...,y m. Für die bivariate Normalverteilung bedeutet das, wenn wir die frühere Notation aus Gleichung 2.11 verwenden EY 1 Y 2 = y 2 = µ 1 + ρ σ 1 σ 2 y 2 µ 2 und VarY 1 Y 2 = y 2 = σ 2 11 ρ 2 Wir leiten jetzt noch einige Resultate für Linearkombinationen von zufälligen Vektoren her. Beachten Sie, dass wir bisher nur Linearkombinationen der Komponenten eines zufälligen Vektors, also von univariaten Zufallsvariablen betrachtet haben. Chatfield und Collins unterscheiden zwischen linear compounds und linear combinations. Linear compounds in ihrem Sinne sind Linearkombinationen der Komponenten eines zufälligen Vektors. Das Ergebnis ist eine univariate Zufallsvariable. Linear combinations sind Linearkombinationen von zufälligen Vektoren. Das Ergebnis ist wieder ein zufälliger Vektor.

6 6.3. SCHÄTZUNG DER PARAMETER 87 e Sei V = n d r X r. Dabei sind X r zufällige Vektoren mit EX r = µ r und Varianz- Kovarianzmatrix Σ r und d r sind skalare Konstanten. Dann gilt für den Erwartungswertvektor µ V und die Varianz-Kovarianzmatrix Σ V von V µ V = EV = d r EX r = d r µ r 6.9 Σ V = VarV = d 2 rσ r + 2 d r d s covx r, X s 6.10 r<s Wenn die zufälligen Vektoren X r normalverteilt sind, so ist auch V normalverteilt. Wenn die X r unkorreliert sind und dieselbe Varianz-Kovarianzmatrix Σ haben, gilt n VarV = Σ = d t dσ 6.11 Dabei ist d t = d 1, d 2,...,d n. d 2 r f Wenn die X r unkorreliert sind und dieselbe Varianz-Kovarianzmatrix Σ haben und wenn V = n d r1 X r und W = n d r2 X r. covv, W = d t 1 d 2Σ 6.12 Dabei ist d t i = d 1i, d 2i,...,d ni. Wenn die X r normalverteilt sind, so sind auch V und W normalverteilt. Sie sind unabhängig, wenn d t 1 d 2 = 0 gilt. g Nehmen Sie an, dass die X r unabhängig verteilt sind wie N m µ; Σ. Dann ist der Stichprobenmittelwert gegeben durch: X = 1 X r n und aus dem Resultat in e folgt mit d r = 1/n X N m µ; 1 n Σ 6.13 Beachten Sie, dass die Kovarianzmatrix umgekehrt proportional zum Stichprobenumfang ist. Dies ist analog zum univariaten Fall, in dem VarȲ = σ2 /n gilt. 6.3 Schätzung der Parameter Wenn eine Stichprobe mit n unabhängigen Beobachtungen des zufälligen Vektors X gegeben ist, so sind der Stichprobenmittelwertvektor X und die Stichprobenkovarianzmatrix S mit dem Nenner n-1 erwartungstreue Schätzer der Parameter µ und Σ. Wenn X eine multivariate Normalverteilung besitzt, dann ist X der Maximum-Likelihood-Schätzer von µ und man kann zeigen, dass wie im univariaten Fall [n 1/n]S der Maximum-Likelihood- Schätzer von Σ ist. Dieser Schätzer ist nicht erwartungstreu. Wir werden den erwartungstreuen Schätzer benutzen. Um die gemeinsame Verteilung von X und S zu untersuchen, brauchen wir zunächst die Wishart-Verteilung.

7 88 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG 6.4 Die Wishart-Verteilung Die Wishart-Verteilung ist die multivariate Verallgemeinerung der χ 2 -Verteilung. Die χ 2 f- Verteilung kann als Summe der Quadrate von f unabhängigen standardnormalverteilten Zufallsvariablen definiert werden. Seien X r, r = 1, 2,..., f unabhängig und N m µ r ; Σ. Dann nennt man die Verteilung der zufälligen m m Matrix W = f X r X t r eine Wishart-Verteilung und W wird eine Wishart-Matrix genannt. Die Verteilung heißt zentral, wenn alle µ r = 0 und wir schreiben dann: W W m f, Σ Andernfalls heißt die Verteilung nichtzentral, und wir schreiben: Dabei ist M t = [µ 1, µ 2,...,µ f ]. W W m f, Σ; M Nun betrachten wir die zufällige Matrix X = X t 1 X t 2. X t f Dies ist eine f m-matrix anstelle der gewohnten n m-datenmatrix. Wir können auch mit den Spaltenvektoren so schreiben: X = Y 1, Y 2,...,Y m Dabei ist Y j ein zufälliger f 1-Vektor, der die j-te Komponente des zufälligen Vektors darstellt. Dann gilt: W = X t X = X 1,...,X f X t 1. X t f f = X r X t r = w ij m m 6.14 Dabei ist w ij = Y t iy j = f Y ir Y jr = f X ri X rj das ij-te Element von W. W ist die zufällige Matrix der unkorrigierten Summen der Quadrate und Produkte der Y j. Dazu beachte man, dass Y t 1 Y t X t Y t 1 Y 1 Y t 1 Y 2... Y t 1 Y m X = 2. Y Y t 1, Y 2,...,Y m = 2Y 1 Y t 2Y 2... Y t 2Y m Y t m Y 1 Y t m Y 2... Y t m Y m Y t m Wir geben einige Eigenschaften dieser Verteilung meist ohne Beweis:

8 6.4. DIE WISHART-VERTEILUNG 89 a EW = fσ + M t M 6.15 Dies folgt aus der Definition von W, da aus Gleichung 2.1 Σ = EX r X t r µ r µ t r folgt: EX r X t r = Σ + µ rµ t r. b RangW = minf, m mit Wahrscheinlichkeit 1. c Wenn W 1 W m f 1, Σ; M 1 und W 2 W m f 2, Σ; M 2 unabhängig sind, dann gilt: wobei M t = [M t 1 M t 2]. W 1 + W 2 W m f 1 + f 2, Σ; M 6.16 Dieses Resultat entspricht dem für die χ 2 -Verteilung bekannten Resultat: Die Summe von zwei unabhängigen χ 2 -verteilten Zufallsvariablen ist wieder χ 2 -verteilt, wobei sich die Freiheitsgrade addieren. Beachten Sie, dass die Kovarianzmatrizen identisch sein müssen. d Wenn W W m f, Σ; M und C eine m q-matrix von Konstanten, dann gilt C t WC W q f, C t ΣC; MC 6.17 Sei Z r = C t X r. Dann wird der m-dimensionale Vektor X r in den q-dimensionalen Vektor Z r transformiert und wir können schreiben: C t WC = f C t X r X t rc = f Z r Z t r. Dabei sind die Z r unabhängig und verteilt wie NC t µ r ;C t ΣC. e Wenn W W m f, Σ; M und c ein m 1-Vektor von Konstanten, dann gilt: c t Wc σ 2 χ 2 f δ2, 6.18 wobei σ 2 = c t Σc und σ 2 δ 2 = c t M t Mc. Wenn die Wishart-Verteilung zentral ist, so ist auch die χ 2 -Verteilung zentral. Die Eigenschaften d und e betrafen Linearkombinationen, bei denen die Originalvariablen in neue Variablen transformiert wurden. Jetzt werden Linearkombinationen der Zeilen, also der Merkmalsträger gebildet. Sei X t 1 X t 2 X =. X t n Dabei seien die X r unabhängig und verteilt wie N m µ r ; Σ und EX t = M t = [µ 1, µ 2,...,µ n ]. Wenn D = [d 1, d 2,...,d n ] eine n-dimensionale orthogonale Matrix ist und d r1 V r = X t d d r = X 1, X 2,...,X n r2. = n d ri X i, i=1 d rn r = 1, 2,..., n Dann sind die V r auch unabhängig und verteilt wie N m ν r ; Σ mit ν r = M t d r.

9 90 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG f Die Wishart-Matrix X t X kann in die Summe von unabhängigen Wishart-Matrizen zerlegt werden: s X t X = X t D k Dk t X, 6.19 k=1 s wobei die D k jeweils n n k -Matrizen sind mit n k = n. Die Spalten dieser k=1 Matrizen sind disjunkte Teilmengen einer orthogonalen Matrix D. Für m = 1 beinhaltet Gleichung 6.19 die Zerlegung einer Summe der Quadrate Total in unabhängige quadratische Formen, die wie σ 2 χ 2 -verteilt sind. Dies ist die Basis für die Theorie der univariaten linearen Modelle. Die allgemeine Form dieser Gleichung, d.h. m > 1 ist die Basis der Theorie der multivariaten Varianzanalyse. 6.5 Die gemeinsame Verteilung des Stichprobenmittelwertvektors und der Stichprobenkovarianzmatrix Wir wissen, dass im univariaten Fall der Mittelwert und die Varianz in der Stichprobe unabhängig verteilt sind. Wir wollen jetzt das analoge Resultat für den multivariaten Fall zeigen, nämlich, dass der Mittelwertvektor X und die Kovarianzmatrix S in der Stichprobe unabhängig verteilt sind. Nehmen wir an, dass X r, r = 1, 2,..., n unabhängig und identisch verteilt sind wie N m µ; Σ und sei X t = [X 1, X 2,...,X n ]. Sei D eine n-dimensionale orthogonale Matrix, deren erste Spalte d 1 sei mit d t 1 = 1/ n[1, 1,..., 1]. Wir zerlegen D in D = [d 1, D 2 ]. Dann gilt nach der Zerlegung von Wishart-Matrizen aus Gleichung 6.19 X t X = X t d 1 d t 1 X + Xt D 2 D t 2 X 6.20 Damit haben wir eine Zerlegung von X t X in zwei unabhängige Wishart-Matrizen. Es folgt aus Gleichung 6.12, dass sie unabhängig sind. Insbesondere folgt aus den Gleichungen 6.10 und 6.12, dass die Zufallsvektoren V r := X t d r unabhängig und normalverteilt sind mit Kovarianzmatrix Σ. Nun gilt V 1 = 1 n X r = n X, so dass X t d 1 d t 1 X = V 1V t 1 = n X X t 6.21 Aus den Gleichungen 6.20 und 6.21 folgt vgl. Gleichung 3.2 X t D 2 D2X t = V r V t r r=2 = X t t X n X X = n 1S Da V 1 unabhängig von V r, r = 2, 3,..., n, folgt, dass X und S unabhängig verteilt sind. Die Verteilung von X ist die Verteilung von 1/ nv 1 und ist daher N m µ; 1/nΣ. Dieses Ergebnis hatten wir bereits in Gleichung 6.13.

10 6.6. HOTELLINGS T 2 -VERTEILUNG 91 Um die Verteilung von n 1S herzuleiten, bemerken wir zunächst, dass für r > 1 da aus der Orthogonalität von D folgt: n n EV r = E d sr X r = d sr µ = 0 s=1 s=1 d t 1 d r = 1 n d sr = 0 n s=1 Aus der Definition einer Wishart-Verteilung folgt, dass Mit Gleichung 6.15 folgt n 1S = V r V t r W m n 1, Σ 6.22 r=2 ES = Σ Das bedeutet also, dass S ein erwartungstreuer Schätzer von Σ ist. Für m = 1 ist dies das Resultat für die univariate Normalverteilungstheorie, dass der Stichprobenmittelwert und die Stichprobenvarianz unabhängig verteilt sind mit X Nµ; σ 2 /n und n 1s 2 σ 2 χ 2 n 1, wobei s2 = 1/n 1 n x r x Hotellings T 2 -Verteilung Hotellings T 2 -Verteilung ist nach Harold Hotelling benannt, der diese Verteilung als multivariate Verallgemeinerung der Student t-verteilung vorgeschlagen hat. Gelte X N m µ, 1/kΣ, wobei k eine von der speziellen Anwendung abhängige Konstante sei. Sei fs W m f, Σ unabhängig von X und sei f > m 1. Wir definieren T 2 durch: T 2 m f = kx µ 0 t S 1 X µ Dies ist eine univariate Zufallsvariable und die Verteilung ist f m + 1 Tm 2 mf f Fm, f m + 1; δ eine nichtzentrale F-Verteilung mit Nichtzentralitätsparameter δ 2 = kµ µ 0 t Σ 1 µ µ Wenn µ = µ 0, ist die Verteilung zentral und wir schreiben dann f m + 1 Tm 2 f Fm, f m mf

11 92 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG Hotellings T 2 hat die folgende Invarianzeigenschaft: Sei Z = C t X + b. Dabei sei C eine nichtsinguläre Matrix von Konstanten und b sei ein Vektor von Konstanten. Dann gilt S Z = C t SC und wenn wir ξ 0 = C t µ 0 + b definieren, so gilt: [T 2 m f] Z = kz ξ 0 t S 1 Z Z ξ 0 = k[c t X µ 0 ] t [C t SC] 1 [C t X µ 0 ] = kx µ 0 t [CC 1 S 1 C t 1 C t ]X µ 0 = kx µ 0 t S 1 X µ 0 = [T 2 m f] X Das bedeutet Invarianz gegenüber der Wahl des Ursprungs und der Skalierung. Für m=1 reduziert sich Gleichung 6.23 zu kx µ 0 2 s 2, d.h. das Quadrat der Student t- Verteilung. Gleichung 6.26 enthält für die zentralen Verteilungen das bekannte univariate Resultat, dass das Quadrat einer t-verteilung mit f Freiheitsgraden eine F-Verteilung mit 1 Freiheitsgrad im Zähler und f Freiheitsgraden im Nenner ist. Die T 2 -Verteilung wird beim Testen von Hypothesen benutzt. Für die Herleitung der Verteilung sei auf Chatfield und Collins 1991, S verwiesen.

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

1 (2π) m/2 det (Σ) exp 1 ]

1 (2π) m/2 det (Σ) exp 1 ] Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Statistik in Geodäsie, Geoinformation und Bauwesen

Statistik in Geodäsie, Geoinformation und Bauwesen Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr. Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem

Mehr

2 Multivariate Normalverteilung

2 Multivariate Normalverteilung 2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Beispiel 6 (Multivariate Normalverteilung)

Beispiel 6 (Multivariate Normalverteilung) Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

4.2 Die adjungierte Abbildung

4.2 Die adjungierte Abbildung 4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II

Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II Universität des Saarlandes Fakultät für Mathematik und Informatik Sommersemester 2004 Prof. Dr. Joachim Weickert Dr. Bernhard Burgeth Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für

Mehr

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition) Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2008/09 4 Einführung Vektoren und Translationen

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016 Name, Vorname Matrikel-Nr. Aufg. Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 206 Bearbeiten Sie bitte

Mehr

Einfache Diskriminanzanalyse

Einfache Diskriminanzanalyse SEITE 1 Einfache Diskriminanzanalyse Einführendes Beispiel Gegeben sind zwei Gruppen von Personen, für die jeweils mehrere Merkmale erhoben wurden, z.b. Alter, Einkommen, Zahl der Kinder und Autobesitz

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Copula Funktionen. Eine Einführung. Nils Friewald

Copula Funktionen. Eine Einführung. Nils Friewald Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005

Mehr

Verteilungen mehrerer Variablen

Verteilungen mehrerer Variablen Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr