6.1 Definition der multivariaten Normalverteilung
|
|
- Kevin Pfeiffer
- vor 7 Jahren
- Abrufe
Transkript
1 Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer Parameter von grundlegender Bedeutung für weitere Verfahren ist. Außerdem sind einige aus ihr abgeleitete Verteilungen von Bedeutung. 6.1 Definition der multivariaten Normalverteilung Sei Y eine m-dimensionale Zufallsvariable mit EY = µ und VarY = Σ. Wenn a ein m 1-Vektor von Konstanten ist, so ist U = a t Y eine eindimensionale Zufallsvariable. Es gilt nach Formel 2.2 und 2.3 EU = a t µ und VarU = a t Σa. Wir nennen U eine Linearkombination von Y. Aus dem Vektor Y wird durch das lineare Funktional U = a t Y ein Skalar. Nun besagt ein Resultat von Cramer und Wold, dass die Verteilung einer m-dimensionalen Zufallsvariablen vollständig bestimmt ist durch die eindimensionalen Verteilungen aller Linearkombinationen, die man mit den Komponenten von Y bilden kann. Wir können jetzt eine neue Definition der multivariaten Normalverteilung geben, die allgemeiner ist als die in Gleichung 2.9. Eine m-dimensionale Zufallsvariable Y hat eine multivariate Normalverteilung, wenn alle Linearkombinationen von Y eine univariate Normalverteilung besitzen. Jede Komponente des Vektors Y ist eine Linearkombination von Y, so ist zum Beispiel Y 1 = [1, 0,...,0]Y. Daher existiert der Erwartungswertvektor µ, da die Komponenten von µ Erwartungswerte univariater Zufallsvariablen sind. Ferner existiert auch die Kovarianzmatrix Σ, da deren Elemente die Varianzen einer bzw. die Kovarianzen zweier univariater Zufallsvariablen sind. Wir haben auf S. 18 gesehen, dass Σ positiv semidefinit ist. Unsere jetzige Definition der multivariaten Normalverteilung verlangt keine weiteren Bedingungen für Σ. Jedoch verlangt die Dichtefunktion der multivariaten Normalverteilung in Gleichung 2.9 die Existenz von Σ 1, d.h. Σ muss vollen Rang haben und damit positiv definit sein. Eine multivariate Normalverteilung, für die Σ 1 nicht existiert, heißt eine singuläre oder degenerierte Normalverteilung und besitzt keine Dichtefunktion. Eine unmittelbare Folgerung aus der Definition der multivariaten Normalverteilung ist, dass eine multivariate Normalverteilung bei einer linearen Transformation erhalten bleibt. Sei A 82
2 6.1. DEFINITION DER MULTIVARIATEN NORMALVERTEILUNG 83 eine m p Matrix von Konstanten und W = A t Y, dann ist W N p A t µ; A t ΣA, 6.1 da jede Linearkombination von W eine Linearkombination von Y ist und daher normalverteilt ist. Der Erwartungswert und die Varianz folgen aus Gleichung 2.2 und 2.3. Im univariaten Fall konnten wir jede beliebige Normalverteilung auf die Standardnormalverteilung transformieren. Wir geben jetzt eine äquivalente Transformation zwischen einem Zufallsvektor Y N m µ; Σ und einem zufälligen Vektor U, dessen Komponenten unabhängig und standardnormalverteilt sind, so dass U N p 0; I p, wobei p = RangΣ und I p ist eine p-dimensionale Einheitsmatrix. Nehmen wir zunächst an, dass Σ vollen Rang besitzt. Dann gibt es eine nichtsinguläre m m-matrix B, so dass Σ = BB t. Man könnte z.b. siehe Gleichung 4.15 Σ = AΛA t = AΛ }{{ 1/2 } Λ} 1/2 {{ A} t verwenden. Dabei ist A die Matrix, deren Spalten die Eigenvektoren von Σ B B t sind, und Λ ist die Diagonalmatrix der Eigenwerte von Σ. Die Matrix B ist somit die Matrix der Komponentenladungen C = AΛ 1/2 siehe S. 49. Betrachten wir jetzt die Transformation Y µ = BU. Wenn U N m 0; I, dann gilt nach Gleichung 6.1 Y µ N m 0; BB t und daher Y N m µ; Σ. Da B 1 existiert, ist die inverse Transformation gegeben durch: U = B 1 Y µ. Wenn Y N m µ; Σ, dann gilt EU = 0 VarU = B 1 ΣB 1 t nach Gleichung 6.1 = B 1 BB t B t 1 = I m Damit gilt U N0; I m. Es sei angemerkt, dass die Matrix B nicht eindeutig ist, so dass es viele solche Transformationen gibt. Nehmen wir jetzt an, dass Σ nicht von vollem Rang ist. Wir brauchen das folgende Argument aus der Matrix-Algebra: Sei Σ eine symmetrische, positiv semidefinite reelle Matrix vom Rang p < m. Dann gibt es eine nichtsinguläre quadratische Matrix P, so dass PΣP t = Ip Schreiben wir P = P1 P 2 für eine p m Matrix P 1, so muss P 1 notwendigerweise Rang p haben. Es folgt, dass P 1 ΣP t 1 = I p. Setzt man Q := P 1 und teilt man Q = [Q 1, Q 2 ], wobei Q 1 eine m p-matrix mit Rang p ist, so gilt mit Gleichung 6.2 Σ = Q Ip Q t = [Q 1, Q 2 ] Ip Q t 1 Q t 2 = Q 1 Q t 1
3 84 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG Nach diesem Resultat existieren für ein gegebenes Σ vom Rang p Matrizen P 1 und Q 1, so dass Σ = Q 1 Q t 1 und P 1 ΣP t 1 = I p. Wenn dann U N p 0; I wird durch die Transformation Y µ = Q 1 U ein m-dimensionaler Vektor definiert, dessen Komponenten Linearkombinationen von U sind, so dass Y N m µ; Q 1 Q t 1. Wir sagen dann, dass Y verteilt ist wie N m µ; Σ vom Rang p und schreiben Y N m µ; Σ. Wenn umgekehrt: Y N m µ; Σ, dann wird durch die Transformation U = P 1 Y µ ein p-dimensionaler Vektor definiert, dessen Komponenten Linearkombinationen von Y µ sind, so dass U N p 0; P 1 ΣP t 1, d.h. U N p0; I. Für die obigen Transformationen können wir die in den Gleichungen 4.7 und 4.8 gegebene kanonische Darstellung von Σ benutzen. Wenn Λ die Diagonalmatrix der von Null verschiedenen Eigenwerte ist und A die m p-matrix vom Rang p der zugehörigen Eigenvektoren in den Spalten, dann erfüllen P 1 = Λ 1/2 A t und Q 1 = AΛ 1/2 die obigen Bedingungen. Wenn Σ vollen Rang hat, ist A die m m-matrix der Eigenvektoren, P 1 = P = Λ 1/2 A t und Q 1 = Q = P 1 = B. Die Methode ist dann eine Hauptkomponentenanalyse, so dass die transformierten Variablen die Varianz 1 haben siehe S. 49. Wir fassen die obigen Resultate so zusammen: Satz 6.1 Y N m µ; Σ mit Rang p m gilt genau dann, wenn Y = µ + BU, wobei U N p 0; I, BB t = Σ und B ist eine m p-matrix vom Rang p. Folgerung 6.1 Wenn Σ vollen Rang hat, ist B eine m m-matrix mit vollem Rang und wir können dann schreiben: U = B 1 Y µ. Wenn Y eine singuläre Verteilung vom Rang p < m hat, dann können die Komponenten von Y µ als Linearkombinationen von p unabhängigen standardnormalverteilten Zufallsvariablen dargestellt werden. Eine Möglichkeit, eine geeignete Transformation zu finden, basiert auf den Eigenwerten und Eigenvektoren von Σ. Die m p Eigenwerte, die Null sind, implizieren m p lineare Relationen zwischen den Komponenten von Y. Für ein Beispiel einer ausgearteten Verteilung betrachten Sie einen Vektor Y, dessen Komponenten aus der Länge, Breite und dem Umfang eines zufälligen Rechtecks bestehen. Dann gilt zwischen den drei Komponenten dieses Vektors die lineare Beziehung 2Y 1 +2Y 2 Y 3 = 0. Obwohl wir einen dreidimensionalen Vektor haben, ist die Variation in Wirklichkeit zweidimensional und RangΣ = 2. Hätten wir Radius, Durchmesser und Umfang eines zufälligen Kreises, so gäbe es zwei lineare Beziehungen zwischen den Komponenten und die effektive Dimension dieses dreidimensionalen Vektors wäre 1. Wenn Σ vollen Rang hat, hat Y eine Dichtefunktion, wie sie in Kapitel 2.3 definiert wurde. 6.2 Eigenschaften der multivariaten Normalverteilung a Wenn Y N m µ, Σ vom Rang m, so dass Σ 1 existiert, dann gilt:
4 6.2. EIGENSCHAFTEN DER MULTIVARIATEN NORMALVERTEILUNG 85 Y µ t Σ 1 Y µ χ 2 m 6.3 Dies ist eine Verallgemeinerung der bekannten Tatsache, dass das Quadrat einer standardnormalverteilten Zufallsvariablen χ 2 1-verteilt ist. Insbesondere gilt für m = 1, dass [Y µ/σ] 2 χ 2 1. Nach Folgerung 6.1 können wir schreiben: U = B 1 Y µ mit BB t = Σ und U N0; I. Dann ist U t U = m Uj 2, wobei die U j unabhängige standardnormalverteilte Zufallsvariablen sind. Folglich ist U t U χ 2 m-verteilt. Andererseits gilt aber: U t U = Y µ t B 1 t B 1 Y µ = Y µ t Σ 1 Y µ Damit folgt das obige Resultat. Subtrahiert man in Gleichung 6.3 nicht den Erwartungswertvektor µ, sondern z.b. µ 0 µ, so erhält man anstelle der zentralen χ 2 -Verteilung eine nichtzentrale χ 2 - Verteilung mit Nichtzentralitätsparameter δ 2 = µ µ 0 t Σ 1 µ µ 0. Wir werden jetzt zeigen, dass die Randverteilungen und die bedingten Verteilungen einer multivariaten Normalverteilung wieder Normalverteilungen sind. Zur Vereinfachung nehmen wir an, dass Y folgendermaßen aufgeteilt ist evtl. muss man vorher die Variablen umordnen: j=1 Y = Y 1 Y 2 mit Y 1 ein q 1 Vektor q < m Entsprechende Aufteilungen gelten für den Erwartungswertvektor und die Kovarianzmatrix: µ = µ1 µ 2 Σ = Σ11 Σ 12 Σ 21 Σ 22 Dabei sind Σ 11 und Σ 22 symmetrische positiv semidefinite q q bzw. m q m q- Matrizen und Σ 12 = Σ t 21 sind q m q-matrizen. b Die Randverteilung von Y 1 ist N q µ 1 ; Σ 11. Die multivariate Normalverteilung von Y 1 folgt aus der Tatsache, dass Linearkombinationen von Y 1 auch Linearkombinationen von Y sind und damit univariate Normalverteilungen haben. c Y 1 und Y 2 sind genau dann unabhängig verteilt, wenn Σ 12 = 0. d Wenn Σ 22 vollen Rang hat, so dass Σ 1 22 existiert, ist die bedingte Verteilung von Y 1, gegeben Y 2 = y 2 eine multivariate Normalverteilung mit: EY 1 Y 2 = y 2 = µ 1 + Σ 12 Σ 1 22 y 2 µ 2 VarY 1 Y 2 = y 2 = Σ 11 Σ 12 Σ 1 22 Σ 21 Wir betrachten den Spezialfall q = 1. Dann ist Y 1 = Y 1 die erste Komponente von Y, also eine univariate Zufallsvariable. Dann ist
5 86 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG EY 1 Y 2 = y 2 = µ 1 + Σ 12 Σ 1 22 y 2 µ Nun ist aber Σ 12 Σ 1 22 eine 1 m 1-Matrix, also ein Zeilenvektor, d.h. Gleichung 6.4 hat die Gestalt EY 1 Y 2 = y 2 = µ 1 + β 2 y 2 µ β m y m µ m 6.5 wenn wir die Elemente dieses Vektors mit β 2,..., β m bezeichnen. Gleichung 6.5 ist die Regressionsfunktion von Y 1 auf Y 2,..., Y m. Für die bedingte Varianz haben wir dann VarY 1 Y 2 = y 2 = σ 11 Σ 12 Σ 1 22 Σ Für die bedingte Varianz kann man zeigen siehe z.b. Chatfield und Collins, 1991, S. 99, auch Rinne, 2000, S. 49, dass VarY 1 Y 2 = y 2 = 1 σ gilt. Dabei ist σ 11 das 1, 1-te Element der Inversen Σ 1. Das bedeutet: die bedingte Varianz ist eine Konstante, die nicht von y 2 abhängt. Gleichung 6.6 impliziert eine Zerlegung σ 11 = Σ 12 Σ 1 22 Σ 21 + VarY 1 Y 2 = y der unbedingten Varianz, VarY 1 = σ 11 in Σ 12 Σ 1 22 Σ 21 die Varianz der Regressionsfunktion der bedingten Erwartungswerte um den unbedingten Erwartungswert µ 1 und die Restvarianz VarY 1 Y 2 = y 2, die Varianz um die Regressionsfunktion vergleiche S. 28, wo wir die Zerlegung der SQTotal in SQRegression und SQResiduale betrachtet haben. Die Matrix Σ 12 Σ 1 22 ist im allgemeinen Fall q beliebig eine q m q-matrix von Regressionskoeffizienten. Die j-te j q Zeile besteht aus den Regressionskoeffizienten für die Regression von Y j auf Y q+1, Y q+2,...,y m. Für die bivariate Normalverteilung bedeutet das, wenn wir die frühere Notation aus Gleichung 2.11 verwenden EY 1 Y 2 = y 2 = µ 1 + ρ σ 1 σ 2 y 2 µ 2 und VarY 1 Y 2 = y 2 = σ 2 11 ρ 2 Wir leiten jetzt noch einige Resultate für Linearkombinationen von zufälligen Vektoren her. Beachten Sie, dass wir bisher nur Linearkombinationen der Komponenten eines zufälligen Vektors, also von univariaten Zufallsvariablen betrachtet haben. Chatfield und Collins unterscheiden zwischen linear compounds und linear combinations. Linear compounds in ihrem Sinne sind Linearkombinationen der Komponenten eines zufälligen Vektors. Das Ergebnis ist eine univariate Zufallsvariable. Linear combinations sind Linearkombinationen von zufälligen Vektoren. Das Ergebnis ist wieder ein zufälliger Vektor.
6 6.3. SCHÄTZUNG DER PARAMETER 87 e Sei V = n d r X r. Dabei sind X r zufällige Vektoren mit EX r = µ r und Varianz- Kovarianzmatrix Σ r und d r sind skalare Konstanten. Dann gilt für den Erwartungswertvektor µ V und die Varianz-Kovarianzmatrix Σ V von V µ V = EV = d r EX r = d r µ r 6.9 Σ V = VarV = d 2 rσ r + 2 d r d s covx r, X s 6.10 r<s Wenn die zufälligen Vektoren X r normalverteilt sind, so ist auch V normalverteilt. Wenn die X r unkorreliert sind und dieselbe Varianz-Kovarianzmatrix Σ haben, gilt n VarV = Σ = d t dσ 6.11 Dabei ist d t = d 1, d 2,...,d n. d 2 r f Wenn die X r unkorreliert sind und dieselbe Varianz-Kovarianzmatrix Σ haben und wenn V = n d r1 X r und W = n d r2 X r. covv, W = d t 1 d 2Σ 6.12 Dabei ist d t i = d 1i, d 2i,...,d ni. Wenn die X r normalverteilt sind, so sind auch V und W normalverteilt. Sie sind unabhängig, wenn d t 1 d 2 = 0 gilt. g Nehmen Sie an, dass die X r unabhängig verteilt sind wie N m µ; Σ. Dann ist der Stichprobenmittelwert gegeben durch: X = 1 X r n und aus dem Resultat in e folgt mit d r = 1/n X N m µ; 1 n Σ 6.13 Beachten Sie, dass die Kovarianzmatrix umgekehrt proportional zum Stichprobenumfang ist. Dies ist analog zum univariaten Fall, in dem VarȲ = σ2 /n gilt. 6.3 Schätzung der Parameter Wenn eine Stichprobe mit n unabhängigen Beobachtungen des zufälligen Vektors X gegeben ist, so sind der Stichprobenmittelwertvektor X und die Stichprobenkovarianzmatrix S mit dem Nenner n-1 erwartungstreue Schätzer der Parameter µ und Σ. Wenn X eine multivariate Normalverteilung besitzt, dann ist X der Maximum-Likelihood-Schätzer von µ und man kann zeigen, dass wie im univariaten Fall [n 1/n]S der Maximum-Likelihood- Schätzer von Σ ist. Dieser Schätzer ist nicht erwartungstreu. Wir werden den erwartungstreuen Schätzer benutzen. Um die gemeinsame Verteilung von X und S zu untersuchen, brauchen wir zunächst die Wishart-Verteilung.
7 88 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG 6.4 Die Wishart-Verteilung Die Wishart-Verteilung ist die multivariate Verallgemeinerung der χ 2 -Verteilung. Die χ 2 f- Verteilung kann als Summe der Quadrate von f unabhängigen standardnormalverteilten Zufallsvariablen definiert werden. Seien X r, r = 1, 2,..., f unabhängig und N m µ r ; Σ. Dann nennt man die Verteilung der zufälligen m m Matrix W = f X r X t r eine Wishart-Verteilung und W wird eine Wishart-Matrix genannt. Die Verteilung heißt zentral, wenn alle µ r = 0 und wir schreiben dann: W W m f, Σ Andernfalls heißt die Verteilung nichtzentral, und wir schreiben: Dabei ist M t = [µ 1, µ 2,...,µ f ]. W W m f, Σ; M Nun betrachten wir die zufällige Matrix X = X t 1 X t 2. X t f Dies ist eine f m-matrix anstelle der gewohnten n m-datenmatrix. Wir können auch mit den Spaltenvektoren so schreiben: X = Y 1, Y 2,...,Y m Dabei ist Y j ein zufälliger f 1-Vektor, der die j-te Komponente des zufälligen Vektors darstellt. Dann gilt: W = X t X = X 1,...,X f X t 1. X t f f = X r X t r = w ij m m 6.14 Dabei ist w ij = Y t iy j = f Y ir Y jr = f X ri X rj das ij-te Element von W. W ist die zufällige Matrix der unkorrigierten Summen der Quadrate und Produkte der Y j. Dazu beachte man, dass Y t 1 Y t X t Y t 1 Y 1 Y t 1 Y 2... Y t 1 Y m X = 2. Y Y t 1, Y 2,...,Y m = 2Y 1 Y t 2Y 2... Y t 2Y m Y t m Y 1 Y t m Y 2... Y t m Y m Y t m Wir geben einige Eigenschaften dieser Verteilung meist ohne Beweis:
8 6.4. DIE WISHART-VERTEILUNG 89 a EW = fσ + M t M 6.15 Dies folgt aus der Definition von W, da aus Gleichung 2.1 Σ = EX r X t r µ r µ t r folgt: EX r X t r = Σ + µ rµ t r. b RangW = minf, m mit Wahrscheinlichkeit 1. c Wenn W 1 W m f 1, Σ; M 1 und W 2 W m f 2, Σ; M 2 unabhängig sind, dann gilt: wobei M t = [M t 1 M t 2]. W 1 + W 2 W m f 1 + f 2, Σ; M 6.16 Dieses Resultat entspricht dem für die χ 2 -Verteilung bekannten Resultat: Die Summe von zwei unabhängigen χ 2 -verteilten Zufallsvariablen ist wieder χ 2 -verteilt, wobei sich die Freiheitsgrade addieren. Beachten Sie, dass die Kovarianzmatrizen identisch sein müssen. d Wenn W W m f, Σ; M und C eine m q-matrix von Konstanten, dann gilt C t WC W q f, C t ΣC; MC 6.17 Sei Z r = C t X r. Dann wird der m-dimensionale Vektor X r in den q-dimensionalen Vektor Z r transformiert und wir können schreiben: C t WC = f C t X r X t rc = f Z r Z t r. Dabei sind die Z r unabhängig und verteilt wie NC t µ r ;C t ΣC. e Wenn W W m f, Σ; M und c ein m 1-Vektor von Konstanten, dann gilt: c t Wc σ 2 χ 2 f δ2, 6.18 wobei σ 2 = c t Σc und σ 2 δ 2 = c t M t Mc. Wenn die Wishart-Verteilung zentral ist, so ist auch die χ 2 -Verteilung zentral. Die Eigenschaften d und e betrafen Linearkombinationen, bei denen die Originalvariablen in neue Variablen transformiert wurden. Jetzt werden Linearkombinationen der Zeilen, also der Merkmalsträger gebildet. Sei X t 1 X t 2 X =. X t n Dabei seien die X r unabhängig und verteilt wie N m µ r ; Σ und EX t = M t = [µ 1, µ 2,...,µ n ]. Wenn D = [d 1, d 2,...,d n ] eine n-dimensionale orthogonale Matrix ist und d r1 V r = X t d d r = X 1, X 2,...,X n r2. = n d ri X i, i=1 d rn r = 1, 2,..., n Dann sind die V r auch unabhängig und verteilt wie N m ν r ; Σ mit ν r = M t d r.
9 90 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG f Die Wishart-Matrix X t X kann in die Summe von unabhängigen Wishart-Matrizen zerlegt werden: s X t X = X t D k Dk t X, 6.19 k=1 s wobei die D k jeweils n n k -Matrizen sind mit n k = n. Die Spalten dieser k=1 Matrizen sind disjunkte Teilmengen einer orthogonalen Matrix D. Für m = 1 beinhaltet Gleichung 6.19 die Zerlegung einer Summe der Quadrate Total in unabhängige quadratische Formen, die wie σ 2 χ 2 -verteilt sind. Dies ist die Basis für die Theorie der univariaten linearen Modelle. Die allgemeine Form dieser Gleichung, d.h. m > 1 ist die Basis der Theorie der multivariaten Varianzanalyse. 6.5 Die gemeinsame Verteilung des Stichprobenmittelwertvektors und der Stichprobenkovarianzmatrix Wir wissen, dass im univariaten Fall der Mittelwert und die Varianz in der Stichprobe unabhängig verteilt sind. Wir wollen jetzt das analoge Resultat für den multivariaten Fall zeigen, nämlich, dass der Mittelwertvektor X und die Kovarianzmatrix S in der Stichprobe unabhängig verteilt sind. Nehmen wir an, dass X r, r = 1, 2,..., n unabhängig und identisch verteilt sind wie N m µ; Σ und sei X t = [X 1, X 2,...,X n ]. Sei D eine n-dimensionale orthogonale Matrix, deren erste Spalte d 1 sei mit d t 1 = 1/ n[1, 1,..., 1]. Wir zerlegen D in D = [d 1, D 2 ]. Dann gilt nach der Zerlegung von Wishart-Matrizen aus Gleichung 6.19 X t X = X t d 1 d t 1 X + Xt D 2 D t 2 X 6.20 Damit haben wir eine Zerlegung von X t X in zwei unabhängige Wishart-Matrizen. Es folgt aus Gleichung 6.12, dass sie unabhängig sind. Insbesondere folgt aus den Gleichungen 6.10 und 6.12, dass die Zufallsvektoren V r := X t d r unabhängig und normalverteilt sind mit Kovarianzmatrix Σ. Nun gilt V 1 = 1 n X r = n X, so dass X t d 1 d t 1 X = V 1V t 1 = n X X t 6.21 Aus den Gleichungen 6.20 und 6.21 folgt vgl. Gleichung 3.2 X t D 2 D2X t = V r V t r r=2 = X t t X n X X = n 1S Da V 1 unabhängig von V r, r = 2, 3,..., n, folgt, dass X und S unabhängig verteilt sind. Die Verteilung von X ist die Verteilung von 1/ nv 1 und ist daher N m µ; 1/nΣ. Dieses Ergebnis hatten wir bereits in Gleichung 6.13.
10 6.6. HOTELLINGS T 2 -VERTEILUNG 91 Um die Verteilung von n 1S herzuleiten, bemerken wir zunächst, dass für r > 1 da aus der Orthogonalität von D folgt: n n EV r = E d sr X r = d sr µ = 0 s=1 s=1 d t 1 d r = 1 n d sr = 0 n s=1 Aus der Definition einer Wishart-Verteilung folgt, dass Mit Gleichung 6.15 folgt n 1S = V r V t r W m n 1, Σ 6.22 r=2 ES = Σ Das bedeutet also, dass S ein erwartungstreuer Schätzer von Σ ist. Für m = 1 ist dies das Resultat für die univariate Normalverteilungstheorie, dass der Stichprobenmittelwert und die Stichprobenvarianz unabhängig verteilt sind mit X Nµ; σ 2 /n und n 1s 2 σ 2 χ 2 n 1, wobei s2 = 1/n 1 n x r x Hotellings T 2 -Verteilung Hotellings T 2 -Verteilung ist nach Harold Hotelling benannt, der diese Verteilung als multivariate Verallgemeinerung der Student t-verteilung vorgeschlagen hat. Gelte X N m µ, 1/kΣ, wobei k eine von der speziellen Anwendung abhängige Konstante sei. Sei fs W m f, Σ unabhängig von X und sei f > m 1. Wir definieren T 2 durch: T 2 m f = kx µ 0 t S 1 X µ Dies ist eine univariate Zufallsvariable und die Verteilung ist f m + 1 Tm 2 mf f Fm, f m + 1; δ eine nichtzentrale F-Verteilung mit Nichtzentralitätsparameter δ 2 = kµ µ 0 t Σ 1 µ µ Wenn µ = µ 0, ist die Verteilung zentral und wir schreiben dann f m + 1 Tm 2 f Fm, f m mf
11 92 KAPITEL 6. DIE MULTIVARIATE NORMALVERTEILUNG Hotellings T 2 hat die folgende Invarianzeigenschaft: Sei Z = C t X + b. Dabei sei C eine nichtsinguläre Matrix von Konstanten und b sei ein Vektor von Konstanten. Dann gilt S Z = C t SC und wenn wir ξ 0 = C t µ 0 + b definieren, so gilt: [T 2 m f] Z = kz ξ 0 t S 1 Z Z ξ 0 = k[c t X µ 0 ] t [C t SC] 1 [C t X µ 0 ] = kx µ 0 t [CC 1 S 1 C t 1 C t ]X µ 0 = kx µ 0 t S 1 X µ 0 = [T 2 m f] X Das bedeutet Invarianz gegenüber der Wahl des Ursprungs und der Skalierung. Für m=1 reduziert sich Gleichung 6.23 zu kx µ 0 2 s 2, d.h. das Quadrat der Student t- Verteilung. Gleichung 6.26 enthält für die zentralen Verteilungen das bekannte univariate Resultat, dass das Quadrat einer t-verteilung mit f Freiheitsgraden eine F-Verteilung mit 1 Freiheitsgrad im Zähler und f Freiheitsgraden im Nenner ist. Die T 2 -Verteilung wird beim Testen von Hypothesen benutzt. Für die Herleitung der Verteilung sei auf Chatfield und Collins 1991, S verwiesen.
Eigenwerte: Auto.eigen<-eigen(cor(Auto.frame))$values round(auto.eigen,digits=4) Kumulierter Anteil
Korrelationsmatrix: Auto.cor
MehrAnhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen
Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
Mehroder A = (a ij ), A =
Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehrx p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!
Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,
Mehr1 (2π) m/2 det (Σ) exp 1 ]
Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.
MehrStatistik in Geodäsie, Geoinformation und Bauwesen
Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen
Mehry = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0
8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrGrundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.
Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem
Mehr2 Multivariate Normalverteilung
2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrSeminar Quantitatives Risikomanagement
Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
Mehr4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau
312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom
Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrVerteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung
Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:
MehrMathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
MehrKapitel 5 : Eigenwerte und Eigenvektoren
Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,
MehrÜbungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil
Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
Mehr4 Statistik normalverteilter Daten
4 Statistik normalverteilter Daten 4.1 Eine Stichprobe a Die drei Grundfragen. Die schliessende Statistik bildet die Brücke zwischen den Wahrscheinlichkeitsmodellen, die unser Denken strukturieren, und
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrLINEARE ALGEBRA II. FÜR PHYSIKER
LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders
Mehrbzw. eine obere Dreiecksmatrix die Gestalt (U: upper)
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere
MehrLS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch
LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X
MehrBeispiel 6 (Multivariate Normalverteilung)
Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor
MehrMathematik 2 Probeprüfung 1
WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur
MehrBeziehungen zwischen Verteilungen
Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrDie Rücktransformation: Z = A t (Y µ) = Y = AZ + µ
Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrDynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/??
Dynamische Systeme und Zeitreihenanalyse Zustandsraummodelle und Kalman Filter Kapitel 15 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle
MehrEinfaktorielle Varianzanalyse
Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrVektoren und Matrizen
Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
Mehr3 Systeme linearer Gleichungen
3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +
Mehr4.2 Die adjungierte Abbildung
4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Mehr= 9 10 k = 10
2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrSerie 8: Online-Test
D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen
MehrTheorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrEine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«
Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II
Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrLösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II
Universität des Saarlandes Fakultät für Mathematik und Informatik Sommersemester 2004 Prof. Dr. Joachim Weickert Dr. Bernhard Burgeth Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrBlatt 10 Lösungshinweise
Lineare Algebra und Geometrie I SS 05 Akad. Rätin Dr. Cynthia Hog-Angeloni Dr. Anton Malevich Blatt 0 Lösungshinweise 0 0 Aufgabe 0. Es seien die Vektoren u =, v = und w = in R gegeben. a # Finden Sie
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
Mehr