6.1 Definition der multivariaten Normalverteilung

Save this PDF as:

Größe: px
Ab Seite anzeigen:

Download "6.1 Definition der multivariaten Normalverteilung"

Transkript

1 Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer Parameter von grundlegender Bedeutung für weitere Verfahren ist. Außerdem sind einige aus ihr abgeleitete Verteilungen von Bedeutung. 6.1 Definition der multivariaten Normalverteilung Sei Y eine m-dimensionale Zufallsvariable mit EY = µ und VarY = Σ. Wenn a ein m 1-Vektor von Konstanten ist, so ist U = a t Y eine eindimensionale Zufallsvariable. Es gilt nach Formel 2.2 und 2.3 EU = a t µ und VarU = a t Σa. Wir nennen U eine Linearkombination von Y. Aus dem Vektor Y wird durch das lineare Funktional U = a t Y ein Skalar. Nun besagt ein Resultat von Cramer und Wold, dass die Verteilung einer m-dimensionalen Zufallsvariablen vollständig bestimmt ist durch die eindimensionalen Verteilungen aller Linearkombinationen, die man mit den Komponenten von Y bilden kann. Wir können jetzt eine neue Definition der multivariaten Normalverteilung geben, die allgemeiner ist als die in Gleichung 2.9. Eine m-dimensionale Zufallsvariable Y hat eine multivariate Normalverteilung, wenn alle Linearkombinationen von Y eine univariate Normalverteilung besitzen. Jede Komponente des Vektors Y ist eine Linearkombination von Y, so ist zum Beispiel Y 1 = [1, 0,...,0]Y. Daher existiert der Erwartungswertvektor µ, da die Komponenten von µ Erwartungswerte univariater Zufallsvariablen sind. Ferner existiert auch die Kovarianzmatrix Σ, da deren Elemente die Varianzen einer bzw. die Kovarianzen zweier univariater Zufallsvariablen sind. Wir haben auf S. 18 gesehen, dass Σ positiv semidefinit ist. Unsere jetzige Definition der multivariaten Normalverteilung verlangt keine weiteren Bedingungen für Σ. Jedoch verlangt die Dichtefunktion der multivariaten Normalverteilung in Gleichung 2.9 die Existenz von Σ 1, d.h. Σ muss vollen Rang haben und damit positiv definit sein. Eine multivariate Normalverteilung, für die Σ 1 nicht existiert, heißt eine singuläre oder degenerierte Normalverteilung und besitzt keine Dichtefunktion. Eine unmittelbare Folgerung aus der Definition der multivariaten Normalverteilung ist, dass eine multivariate Normalverteilung bei einer linearen Transformation erhalten bleibt. Sei A 82

2 6.1. DEFINITION DER MULTIVARIATEN NORMALVERTEILUNG 83 eine m p Matrix von Konstanten und W = A t Y, dann ist W N p A t µ; A t ΣA, 6.1 da jede Linearkombination von W eine Linearkombination von Y ist und daher normalverteilt ist. Der Erwartungswert und die Varianz folgen aus Gleichung 2.2 und 2.3. Im univariaten Fall konnten wir jede beliebige Normalverteilung auf die Standardnormalverteilung transformieren. Wir geben jetzt eine äquivalente Transformation zwischen einem Zufallsvektor Y N m µ; Σ und einem zufälligen Vektor U, dessen Komponenten unabhängig und standardnormalverteilt sind, so dass U N p 0; I p, wobei p = RangΣ und I p ist eine p-dimensionale Einheitsmatrix. Nehmen wir zunächst an, dass Σ vollen Rang besitzt. Dann gibt es eine nichtsinguläre m m-matrix B, so dass Σ = BB t. Man könnte z.b. siehe Gleichung 4.15 Σ = AΛA t = AΛ }{{ 1/2 } Λ} 1/2 {{ A} t verwenden. Dabei ist A die Matrix, deren Spalten die Eigenvektoren von Σ B B t sind, und Λ ist die Diagonalmatrix der Eigenwerte von Σ. Die Matrix B ist somit die Matrix der Komponentenladungen C = AΛ 1/2 siehe S. 49. Betrachten wir jetzt die Transformation Y µ = BU. Wenn U N m 0; I, dann gilt nach Gleichung 6.1 Y µ N m 0; BB t und daher Y N m µ; Σ. Da B 1 existiert, ist die inverse Transformation gegeben durch: U = B 1 Y µ. Wenn Y N m µ; Σ, dann gilt EU = 0 VarU = B 1 ΣB 1 t nach Gleichung 6.1 = B 1 BB t B t 1 = I m Damit gilt U N0; I m. Es sei angemerkt, dass die Matrix B nicht eindeutig ist, so dass es viele solche Transformationen gibt. Nehmen wir jetzt an, dass Σ nicht von vollem Rang ist. Wir brauchen das folgende Argument aus der Matrix-Algebra: Sei Σ eine symmetrische, positiv semidefinite reelle Matrix vom Rang p < m. Dann gibt es eine nichtsinguläre quadratische Matrix P, so dass PΣP t = Ip Schreiben wir P = P1 P 2 für eine p m Matrix P 1, so muss P 1 notwendigerweise Rang p haben. Es folgt, dass P 1 ΣP t 1 = I p. Setzt man Q := P 1 und teilt man Q = [Q 1, Q 2 ], wobei Q 1 eine m p-matrix mit Rang p ist, so gilt mit Gleichung 6.2 Σ = Q Ip Q t = [Q 1, Q 2 ] Ip Q t 1 Q t 2 = Q 1 Q t 1

3 84 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG Nach diesem Resultat existieren für ein gegebenes Σ vom Rang p Matrizen P 1 und Q 1, so dass Σ = Q 1 Q t 1 und P 1 ΣP t 1 = I p. Wenn dann U N p 0; I wird durch die Transformation Y µ = Q 1 U ein m-dimensionaler Vektor definiert, dessen Komponenten Linearkombinationen von U sind, so dass Y N m µ; Q 1 Q t 1. Wir sagen dann, dass Y verteilt ist wie N m µ; Σ vom Rang p und schreiben Y N m µ; Σ. Wenn umgekehrt: Y N m µ; Σ, dann wird durch die Transformation U = P 1 Y µ ein p-dimensionaler Vektor definiert, dessen Komponenten Linearkombinationen von Y µ sind, so dass U N p 0; P 1 ΣP t 1, d.h. U N p0; I. Für die obigen Transformationen können wir die in den Gleichungen 4.7 und 4.8 gegebene kanonische Darstellung von Σ benutzen. Wenn Λ die Diagonalmatrix der von Null verschiedenen Eigenwerte ist und A die m p-matrix vom Rang p der zugehörigen Eigenvektoren in den Spalten, dann erfüllen P 1 = Λ 1/2 A t und Q 1 = AΛ 1/2 die obigen Bedingungen. Wenn Σ vollen Rang hat, ist A die m m-matrix der Eigenvektoren, P 1 = P = Λ 1/2 A t und Q 1 = Q = P 1 = B. Die Methode ist dann eine Hauptkomponentenanalyse, so dass die transformierten Variablen die Varianz 1 haben siehe S. 49. Wir fassen die obigen Resultate so zusammen: Satz 6.1 Y N m µ; Σ mit Rang p m gilt genau dann, wenn Y = µ + BU, wobei U N p 0; I, BB t = Σ und B ist eine m p-matrix vom Rang p. Folgerung 6.1 Wenn Σ vollen Rang hat, ist B eine m m-matrix mit vollem Rang und wir können dann schreiben: U = B 1 Y µ. Wenn Y eine singuläre Verteilung vom Rang p < m hat, dann können die Komponenten von Y µ als Linearkombinationen von p unabhängigen standardnormalverteilten Zufallsvariablen dargestellt werden. Eine Möglichkeit, eine geeignete Transformation zu finden, basiert auf den Eigenwerten und Eigenvektoren von Σ. Die m p Eigenwerte, die Null sind, implizieren m p lineare Relationen zwischen den Komponenten von Y. Für ein Beispiel einer ausgearteten Verteilung betrachten Sie einen Vektor Y, dessen Komponenten aus der Länge, Breite und dem Umfang eines zufälligen Rechtecks bestehen. Dann gilt zwischen den drei Komponenten dieses Vektors die lineare Beziehung 2Y 1 +2Y 2 Y 3 = 0. Obwohl wir einen dreidimensionalen Vektor haben, ist die Variation in Wirklichkeit zweidimensional und RangΣ = 2. Hätten wir Radius, Durchmesser und Umfang eines zufälligen Kreises, so gäbe es zwei lineare Beziehungen zwischen den Komponenten und die effektive Dimension dieses dreidimensionalen Vektors wäre 1. Wenn Σ vollen Rang hat, hat Y eine Dichtefunktion, wie sie in Kapitel 2.3 definiert wurde. 6.2 Eigenschaften der multivariaten Normalverteilung a Wenn Y N m µ, Σ vom Rang m, so dass Σ 1 existiert, dann gilt:

4 6.2. EIGENSCHAFTEN DER MULTIVARIATEN NORMALVERTEILUNG 85 Y µ t Σ 1 Y µ χ 2 m 6.3 Dies ist eine Verallgemeinerung der bekannten Tatsache, dass das Quadrat einer standardnormalverteilten Zufallsvariablen χ 2 1-verteilt ist. Insbesondere gilt für m = 1, dass [Y µ/σ] 2 χ 2 1. Nach Folgerung 6.1 können wir schreiben: U = B 1 Y µ mit BB t = Σ und U N0; I. Dann ist U t U = m Uj 2, wobei die U j unabhängige standardnormalverteilte Zufallsvariablen sind. Folglich ist U t U χ 2 m-verteilt. Andererseits gilt aber: U t U = Y µ t B 1 t B 1 Y µ = Y µ t Σ 1 Y µ Damit folgt das obige Resultat. Subtrahiert man in Gleichung 6.3 nicht den Erwartungswertvektor µ, sondern z.b. µ 0 µ, so erhält man anstelle der zentralen χ 2 -Verteilung eine nichtzentrale χ 2 - Verteilung mit Nichtzentralitätsparameter δ 2 = µ µ 0 t Σ 1 µ µ 0. Wir werden jetzt zeigen, dass die Randverteilungen und die bedingten Verteilungen einer multivariaten Normalverteilung wieder Normalverteilungen sind. Zur Vereinfachung nehmen wir an, dass Y folgendermaßen aufgeteilt ist evtl. muss man vorher die Variablen umordnen: j=1 Y = Y 1 Y 2 mit Y 1 ein q 1 Vektor q < m Entsprechende Aufteilungen gelten für den Erwartungswertvektor und die Kovarianzmatrix: µ = µ1 µ 2 Σ = Σ11 Σ 12 Σ 21 Σ 22 Dabei sind Σ 11 und Σ 22 symmetrische positiv semidefinite q q bzw. m q m q- Matrizen und Σ 12 = Σ t 21 sind q m q-matrizen. b Die Randverteilung von Y 1 ist N q µ 1 ; Σ 11. Die multivariate Normalverteilung von Y 1 folgt aus der Tatsache, dass Linearkombinationen von Y 1 auch Linearkombinationen von Y sind und damit univariate Normalverteilungen haben. c Y 1 und Y 2 sind genau dann unabhängig verteilt, wenn Σ 12 = 0. d Wenn Σ 22 vollen Rang hat, so dass Σ 1 22 existiert, ist die bedingte Verteilung von Y 1, gegeben Y 2 = y 2 eine multivariate Normalverteilung mit: EY 1 Y 2 = y 2 = µ 1 + Σ 12 Σ 1 22 y 2 µ 2 VarY 1 Y 2 = y 2 = Σ 11 Σ 12 Σ 1 22 Σ 21 Wir betrachten den Spezialfall q = 1. Dann ist Y 1 = Y 1 die erste Komponente von Y, also eine univariate Zufallsvariable. Dann ist

5 86 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG EY 1 Y 2 = y 2 = µ 1 + Σ 12 Σ 1 22 y 2 µ Nun ist aber Σ 12 Σ 1 22 eine 1 m 1-Matrix, also ein Zeilenvektor, d.h. Gleichung 6.4 hat die Gestalt EY 1 Y 2 = y 2 = µ 1 + β 2 y 2 µ β m y m µ m 6.5 wenn wir die Elemente dieses Vektors mit β 2,..., β m bezeichnen. Gleichung 6.5 ist die Regressionsfunktion von Y 1 auf Y 2,..., Y m. Für die bedingte Varianz haben wir dann VarY 1 Y 2 = y 2 = σ 11 Σ 12 Σ 1 22 Σ Für die bedingte Varianz kann man zeigen siehe z.b. Chatfield und Collins, 1991, S. 99, auch Rinne, 2000, S. 49, dass VarY 1 Y 2 = y 2 = 1 σ gilt. Dabei ist σ 11 das 1, 1-te Element der Inversen Σ 1. Das bedeutet: die bedingte Varianz ist eine Konstante, die nicht von y 2 abhängt. Gleichung 6.6 impliziert eine Zerlegung σ 11 = Σ 12 Σ 1 22 Σ 21 + VarY 1 Y 2 = y der unbedingten Varianz, VarY 1 = σ 11 in Σ 12 Σ 1 22 Σ 21 die Varianz der Regressionsfunktion der bedingten Erwartungswerte um den unbedingten Erwartungswert µ 1 und die Restvarianz VarY 1 Y 2 = y 2, die Varianz um die Regressionsfunktion vergleiche S. 28, wo wir die Zerlegung der SQTotal in SQRegression und SQResiduale betrachtet haben. Die Matrix Σ 12 Σ 1 22 ist im allgemeinen Fall q beliebig eine q m q-matrix von Regressionskoeffizienten. Die j-te j q Zeile besteht aus den Regressionskoeffizienten für die Regression von Y j auf Y q+1, Y q+2,...,y m. Für die bivariate Normalverteilung bedeutet das, wenn wir die frühere Notation aus Gleichung 2.11 verwenden EY 1 Y 2 = y 2 = µ 1 + ρ σ 1 σ 2 y 2 µ 2 und VarY 1 Y 2 = y 2 = σ 2 11 ρ 2 Wir leiten jetzt noch einige Resultate für Linearkombinationen von zufälligen Vektoren her. Beachten Sie, dass wir bisher nur Linearkombinationen der Komponenten eines zufälligen Vektors, also von univariaten Zufallsvariablen betrachtet haben. Chatfield und Collins unterscheiden zwischen linear compounds und linear combinations. Linear compounds in ihrem Sinne sind Linearkombinationen der Komponenten eines zufälligen Vektors. Das Ergebnis ist eine univariate Zufallsvariable. Linear combinations sind Linearkombinationen von zufälligen Vektoren. Das Ergebnis ist wieder ein zufälliger Vektor.

6 6.3. SCHÄTZUNG DER PARAMETER 87 e Sei V = n d r X r. Dabei sind X r zufällige Vektoren mit EX r = µ r und Varianz- Kovarianzmatrix Σ r und d r sind skalare Konstanten. Dann gilt für den Erwartungswertvektor µ V und die Varianz-Kovarianzmatrix Σ V von V µ V = EV = d r EX r = d r µ r 6.9 Σ V = VarV = d 2 rσ r + 2 d r d s covx r, X s 6.10 r<s Wenn die zufälligen Vektoren X r normalverteilt sind, so ist auch V normalverteilt. Wenn die X r unkorreliert sind und dieselbe Varianz-Kovarianzmatrix Σ haben, gilt n VarV = Σ = d t dσ 6.11 Dabei ist d t = d 1, d 2,...,d n. d 2 r f Wenn die X r unkorreliert sind und dieselbe Varianz-Kovarianzmatrix Σ haben und wenn V = n d r1 X r und W = n d r2 X r. covv, W = d t 1 d 2Σ 6.12 Dabei ist d t i = d 1i, d 2i,...,d ni. Wenn die X r normalverteilt sind, so sind auch V und W normalverteilt. Sie sind unabhängig, wenn d t 1 d 2 = 0 gilt. g Nehmen Sie an, dass die X r unabhängig verteilt sind wie N m µ; Σ. Dann ist der Stichprobenmittelwert gegeben durch: X = 1 X r n und aus dem Resultat in e folgt mit d r = 1/n X N m µ; 1 n Σ 6.13 Beachten Sie, dass die Kovarianzmatrix umgekehrt proportional zum Stichprobenumfang ist. Dies ist analog zum univariaten Fall, in dem VarȲ = σ2 /n gilt. 6.3 Schätzung der Parameter Wenn eine Stichprobe mit n unabhängigen Beobachtungen des zufälligen Vektors X gegeben ist, so sind der Stichprobenmittelwertvektor X und die Stichprobenkovarianzmatrix S mit dem Nenner n-1 erwartungstreue Schätzer der Parameter µ und Σ. Wenn X eine multivariate Normalverteilung besitzt, dann ist X der Maximum-Likelihood-Schätzer von µ und man kann zeigen, dass wie im univariaten Fall [n 1/n]S der Maximum-Likelihood- Schätzer von Σ ist. Dieser Schätzer ist nicht erwartungstreu. Wir werden den erwartungstreuen Schätzer benutzen. Um die gemeinsame Verteilung von X und S zu untersuchen, brauchen wir zunächst die Wishart-Verteilung.

7 88 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG 6.4 Die Wishart-Verteilung Die Wishart-Verteilung ist die multivariate Verallgemeinerung der χ 2 -Verteilung. Die χ 2 f- Verteilung kann als Summe der Quadrate von f unabhängigen standardnormalverteilten Zufallsvariablen definiert werden. Seien X r, r = 1, 2,..., f unabhängig und N m µ r ; Σ. Dann nennt man die Verteilung der zufälligen m m Matrix W = f X r X t r eine Wishart-Verteilung und W wird eine Wishart-Matrix genannt. Die Verteilung heißt zentral, wenn alle µ r = 0 und wir schreiben dann: W W m f, Σ Andernfalls heißt die Verteilung nichtzentral, und wir schreiben: Dabei ist M t = [µ 1, µ 2,...,µ f ]. W W m f, Σ; M Nun betrachten wir die zufällige Matrix X = X t 1 X t 2. X t f Dies ist eine f m-matrix anstelle der gewohnten n m-datenmatrix. Wir können auch mit den Spaltenvektoren so schreiben: X = Y 1, Y 2,...,Y m Dabei ist Y j ein zufälliger f 1-Vektor, der die j-te Komponente des zufälligen Vektors darstellt. Dann gilt: W = X t X = X 1,...,X f X t 1. X t f f = X r X t r = w ij m m 6.14 Dabei ist w ij = Y t iy j = f Y ir Y jr = f X ri X rj das ij-te Element von W. W ist die zufällige Matrix der unkorrigierten Summen der Quadrate und Produkte der Y j. Dazu beachte man, dass Y t 1 Y t X t Y t 1 Y 1 Y t 1 Y 2... Y t 1 Y m X = 2. Y Y t 1, Y 2,...,Y m = 2Y 1 Y t 2Y 2... Y t 2Y m Y t m Y 1 Y t m Y 2... Y t m Y m Y t m Wir geben einige Eigenschaften dieser Verteilung meist ohne Beweis:

8 6.4. DIE WISHART-VERTEILUNG 89 a EW = fσ + M t M 6.15 Dies folgt aus der Definition von W, da aus Gleichung 2.1 Σ = EX r X t r µ r µ t r folgt: EX r X t r = Σ + µ rµ t r. b RangW = minf, m mit Wahrscheinlichkeit 1. c Wenn W 1 W m f 1, Σ; M 1 und W 2 W m f 2, Σ; M 2 unabhängig sind, dann gilt: wobei M t = [M t 1 M t 2]. W 1 + W 2 W m f 1 + f 2, Σ; M 6.16 Dieses Resultat entspricht dem für die χ 2 -Verteilung bekannten Resultat: Die Summe von zwei unabhängigen χ 2 -verteilten Zufallsvariablen ist wieder χ 2 -verteilt, wobei sich die Freiheitsgrade addieren. Beachten Sie, dass die Kovarianzmatrizen identisch sein müssen. d Wenn W W m f, Σ; M und C eine m q-matrix von Konstanten, dann gilt C t WC W q f, C t ΣC; MC 6.17 Sei Z r = C t X r. Dann wird der m-dimensionale Vektor X r in den q-dimensionalen Vektor Z r transformiert und wir können schreiben: C t WC = f C t X r X t rc = f Z r Z t r. Dabei sind die Z r unabhängig und verteilt wie NC t µ r ;C t ΣC. e Wenn W W m f, Σ; M und c ein m 1-Vektor von Konstanten, dann gilt: c t Wc σ 2 χ 2 f δ2, 6.18 wobei σ 2 = c t Σc und σ 2 δ 2 = c t M t Mc. Wenn die Wishart-Verteilung zentral ist, so ist auch die χ 2 -Verteilung zentral. Die Eigenschaften d und e betrafen Linearkombinationen, bei denen die Originalvariablen in neue Variablen transformiert wurden. Jetzt werden Linearkombinationen der Zeilen, also der Merkmalsträger gebildet. Sei X t 1 X t 2 X =. X t n Dabei seien die X r unabhängig und verteilt wie N m µ r ; Σ und EX t = M t = [µ 1, µ 2,...,µ n ]. Wenn D = [d 1, d 2,...,d n ] eine n-dimensionale orthogonale Matrix ist und d r1 V r = X t d d r = X 1, X 2,...,X n r2. = n d ri X i, i=1 d rn r = 1, 2,..., n Dann sind die V r auch unabhängig und verteilt wie N m ν r ; Σ mit ν r = M t d r.

9 90 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG f Die Wishart-Matrix X t X kann in die Summe von unabhängigen Wishart-Matrizen zerlegt werden: s X t X = X t D k Dk t X, 6.19 k=1 s wobei die D k jeweils n n k -Matrizen sind mit n k = n. Die Spalten dieser k=1 Matrizen sind disjunkte Teilmengen einer orthogonalen Matrix D. Für m = 1 beinhaltet Gleichung 6.19 die Zerlegung einer Summe der Quadrate Total in unabhängige quadratische Formen, die wie σ 2 χ 2 -verteilt sind. Dies ist die Basis für die Theorie der univariaten linearen Modelle. Die allgemeine Form dieser Gleichung, d.h. m > 1 ist die Basis der Theorie der multivariaten Varianzanalyse. 6.5 Die gemeinsame Verteilung des Stichprobenmittelwertvektors und der Stichprobenkovarianzmatrix Wir wissen, dass im univariaten Fall der Mittelwert und die Varianz in der Stichprobe unabhängig verteilt sind. Wir wollen jetzt das analoge Resultat für den multivariaten Fall zeigen, nämlich, dass der Mittelwertvektor X und die Kovarianzmatrix S in der Stichprobe unabhängig verteilt sind. Nehmen wir an, dass X r, r = 1, 2,..., n unabhängig und identisch verteilt sind wie N m µ; Σ und sei X t = [X 1, X 2,...,X n ]. Sei D eine n-dimensionale orthogonale Matrix, deren erste Spalte d 1 sei mit d t 1 = 1/ n[1, 1,..., 1]. Wir zerlegen D in D = [d 1, D 2 ]. Dann gilt nach der Zerlegung von Wishart-Matrizen aus Gleichung 6.19 X t X = X t d 1 d t 1 X + Xt D 2 D t 2 X 6.20 Damit haben wir eine Zerlegung von X t X in zwei unabhängige Wishart-Matrizen. Es folgt aus Gleichung 6.12, dass sie unabhängig sind. Insbesondere folgt aus den Gleichungen 6.10 und 6.12, dass die Zufallsvektoren V r := X t d r unabhängig und normalverteilt sind mit Kovarianzmatrix Σ. Nun gilt V 1 = 1 n X r = n X, so dass X t d 1 d t 1 X = V 1V t 1 = n X X t 6.21 Aus den Gleichungen 6.20 und 6.21 folgt vgl. Gleichung 3.2 X t D 2 D2X t = V r V t r r=2 = X t t X n X X = n 1S Da V 1 unabhängig von V r, r = 2, 3,..., n, folgt, dass X und S unabhängig verteilt sind. Die Verteilung von X ist die Verteilung von 1/ nv 1 und ist daher N m µ; 1/nΣ. Dieses Ergebnis hatten wir bereits in Gleichung 6.13.

10 6.6. HOTELLINGS T 2 -VERTEILUNG 91 Um die Verteilung von n 1S herzuleiten, bemerken wir zunächst, dass für r > 1 da aus der Orthogonalität von D folgt: n n EV r = E d sr X r = d sr µ = 0 s=1 s=1 d t 1 d r = 1 n d sr = 0 n s=1 Aus der Definition einer Wishart-Verteilung folgt, dass Mit Gleichung 6.15 folgt n 1S = V r V t r W m n 1, Σ 6.22 r=2 ES = Σ Das bedeutet also, dass S ein erwartungstreuer Schätzer von Σ ist. Für m = 1 ist dies das Resultat für die univariate Normalverteilungstheorie, dass der Stichprobenmittelwert und die Stichprobenvarianz unabhängig verteilt sind mit X Nµ; σ 2 /n und n 1s 2 σ 2 χ 2 n 1, wobei s2 = 1/n 1 n x r x Hotellings T 2 -Verteilung Hotellings T 2 -Verteilung ist nach Harold Hotelling benannt, der diese Verteilung als multivariate Verallgemeinerung der Student t-verteilung vorgeschlagen hat. Gelte X N m µ, 1/kΣ, wobei k eine von der speziellen Anwendung abhängige Konstante sei. Sei fs W m f, Σ unabhängig von X und sei f > m 1. Wir definieren T 2 durch: T 2 m f = kx µ 0 t S 1 X µ Dies ist eine univariate Zufallsvariable und die Verteilung ist f m + 1 Tm 2 mf f Fm, f m + 1; δ eine nichtzentrale F-Verteilung mit Nichtzentralitätsparameter δ 2 = kµ µ 0 t Σ 1 µ µ Wenn µ = µ 0, ist die Verteilung zentral und wir schreiben dann f m + 1 Tm 2 f Fm, f m mf

11 92 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG Hotellings T 2 hat die folgende Invarianzeigenschaft: Sei Z = C t X + b. Dabei sei C eine nichtsinguläre Matrix von Konstanten und b sei ein Vektor von Konstanten. Dann gilt S Z = C t SC und wenn wir ξ 0 = C t µ 0 + b definieren, so gilt: [T 2 m f] Z = kz ξ 0 t S 1 Z Z ξ 0 = k[c t X µ 0 ] t [C t SC] 1 [C t X µ 0 ] = kx µ 0 t [CC 1 S 1 C t 1 C t ]X µ 0 = kx µ 0 t S 1 X µ 0 = [T 2 m f] X Das bedeutet Invarianz gegenüber der Wahl des Ursprungs und der Skalierung. Für m=1 reduziert sich Gleichung 6.23 zu kx µ 0 2 s 2, d.h. das Quadrat der Student t- Verteilung. Gleichung 6.26 enthält für die zentralen Verteilungen das bekannte univariate Resultat, dass das Quadrat einer t-verteilung mit f Freiheitsgraden eine F-Verteilung mit 1 Freiheitsgrad im Zähler und f Freiheitsgraden im Nenner ist. Die T 2 -Verteilung wird beim Testen von Hypothesen benutzt. Für die Herleitung der Verteilung sei auf Chatfield und Collins 1991, S verwiesen.

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

oder A = (a ij ), A =

oder A = (a ij ), A = Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren! Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,

Mehr

1 (2π) m/2 det (Σ) exp 1 ]

1 (2π) m/2 det (Σ) exp 1 ] Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.

Mehr

Statistik in Geodäsie, Geoinformation und Bauwesen

Statistik in Geodäsie, Geoinformation und Bauwesen Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen

Mehr

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr. Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem

Mehr

2 Multivariate Normalverteilung

2 Multivariate Normalverteilung 2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Seminar Quantitatives Risikomanagement

Seminar Quantitatives Risikomanagement Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 5 : Eigenwerte und Eigenvektoren Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,

Mehr

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

4 Statistik normalverteilter Daten

4 Statistik normalverteilter Daten 4 Statistik normalverteilter Daten 4.1 Eine Stichprobe a Die drei Grundfragen. Die schliessende Statistik bildet die Brücke zwischen den Wahrscheinlichkeitsmodellen, die unser Denken strukturieren, und

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere

Mehr

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X

Mehr

Beispiel 6 (Multivariate Normalverteilung)

Beispiel 6 (Multivariate Normalverteilung) Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/??

Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/?? Dynamische Systeme und Zeitreihenanalyse Zustandsraummodelle und Kalman Filter Kapitel 15 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

4.2 Die adjungierte Abbildung

4.2 Die adjungierte Abbildung 4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

Serie 8: Online-Test

Serie 8: Online-Test D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen

Mehr

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II

Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II Universität des Saarlandes Fakultät für Mathematik und Informatik Sommersemester 2004 Prof. Dr. Joachim Weickert Dr. Bernhard Burgeth Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Blatt 10 Lösungshinweise

Blatt 10 Lösungshinweise Lineare Algebra und Geometrie I SS 05 Akad. Rätin Dr. Cynthia Hog-Angeloni Dr. Anton Malevich Blatt 0 Lösungshinweise 0 0 Aufgabe 0. Es seien die Vektoren u =, v = und w = in R gegeben. a # Finden Sie

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr