Formelsammlung zu Multivariate Verfahren



Ähnliche Dokumente
Multivariate Verteilungen. Gerhard Tutz LMU München

Stochastische Eingangsprüfung,

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Klausur zur Vorlesung Multivariate Verfahren, SS Kreditpunkte, 90 min

Multivariate Statistik

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

Der Zwei-Quadrate-Satz von Fermat

Zusammenhänge zwischen metrischen Merkmalen

Statistik II für Betriebswirte Vorlesung 2

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch

Die Optimalität von Randomisationstests

Melanie Kaspar, Prof. Dr. B. Grabowski 1

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Motivation. Wilcoxon-Rangsummentest oder Mann-Whitney U-Test. Wilcoxon Rangsummen-Test Voraussetzungen. Bemerkungen

Beispiel Zusammengesetzte Zufallsvariablen

Binäre abhängige Variablen

Modellierung von Korrelationen zwischen Kreditausfallraten für Kreditportfolios. Bernd Rosenow, 3. Kölner Workshop Quantitative Finanzmarktforschung

Korrelation - Regression. Berghold, IMI

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Einführung in die Vektor- und Matrizenrechnung. Matrizen

1 Diskriminanzanalyse

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Korrelation (II) Korrelation und Kausalität

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Multivariate Verfahren

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Statistik I für Betriebswirte Vorlesung 11

Extrema von Funktionen in zwei Variablen

1 Multivariate Zufallsvariablen

Willkommen zur Vorlesung Statistik

Monte Carlo Methoden in Kreditrisiko-Management

Varianzanalyse (ANOVA: analysis of variance)

Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

9. Schätzen und Testen bei unbekannter Varianz

Willkommen zur Vorlesung Statistik (Master)

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

Vorlesung. Informationsökonomik und die Theorie der Firma

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

2.Tutorium Generalisierte Regression

Diskriminanzanalyse Beispiel

Statistische Thermodynamik I Lösungen zur Serie 1

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Eigenwerte und Eigenvektoren von Matrizen

Kapitel 4: Binäre Regression

WS 2008/09. Diskrete Strukturen

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

2.Tutorium Multivariate Verfahren

4 Vorlesung: Matrix und Determinante

Interne und externe Modellvalidität

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

Fortgeschrittene Statistik Logistische Regression

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

Statistik II für Betriebswirte Vorlesung 3

q = 1 p = k k k = 0, 1,..., = [ ] = 0.678

Grundlagen der Inferenzstatistik

FAKTORIELLE VERSUCHSPLÄNE. Andreas Handl

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Kontingenzkoeffizient (nach Pearson)

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Modulabschlussklausur Analysis II

Quantitative Methoden der Bildungsforschung

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Dokumentation. estat Version 2.0

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Tutorial: Homogenitätstest

13.5 Der zentrale Grenzwertsatz

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum

Taschenbuch Versuchsplanung Produkte und Prozesse optimieren

1.3 Die Beurteilung von Testleistungen

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Risikomessung und Value at Risk Wintersemester 2013/14

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

i x k k=1 i u i x i v i 1 0, ,08 2 0, ,18 3 0, ,36 4 0, ,60 5 1, ,00 2,22 G = n 2 n i=1

Multinomiale logistische Regression

Entscheidungsbaumverfahren

Beurteilung der biometrischen Verhältnisse in einem Bestand. Dr. Richard Herrmann, Köln

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Hauptseminar am Fachgebiet für Quantitative Methoden der Wirtschaftswissenschaften

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester Juli 2005

Überblick über die Verfahren für Ordinaldaten

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

5 Allgemeine Verfahren zum Testen von Hypothesen

Varianzanalyse ANOVA

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.)

Multivariate Verfahren

Transkript:

Institut für Statistik Gerhard Tutz, Moritz, Wolfgang Pößnecker Sommersemester 204 Formelsammlung zu Multivariate Verfahren Inhaltsverzeichnis Version 0804204 Diese Formelsammlung darf in der Klausur verwendet werden Eigene Notizen und Ergänzungen dürfen eingefügt, aber keine zusätzlichen Blätter eingeheftet werden Multivariate Schätz und Testprobleme 2 Schätzung im Ein Stichprobenfall 2 2 Schätzung im Mehr Stichprobenfall 3 3 Tests, Konfidenzbereiche für Erwartungswerte im Ein Stichprobenfall; Σ bekannt 4 4 Tests, Konfidenzbereiche für Erwartungswerte im Ein Stichprobenfall; Σ unbekannt 4 5 Tests im Zwei Stichprobenfall unabhängige Stichproben 5 6 Tests im Zwei Stichprobenfall verbundene Stichproben 5 2 Diskriminanzanalyse/Klassifikation 6 2 Relevante Größen: 6 22 Bayes Zuordnung: 6 23 Kostenoptimale Bayes Zuordnung: 8 24 Zuordnungsregel unter der Voraussetzung Normalverteilung 9 25 Fishersche Diskriminanzanalyse 0 3 Clusteranalyse 3 Distanzmaße für Objekte: 32 Distanzmaße: 33 Distanzmaße für Klassen: 2 34 Einige Grundbegriffe: 3 35 Gütekriterien: quantitative Merkmale 4 4 Multivariate lineare Regression 4 4 Konzept 4 42 Schätzen 6 43 Testverfahren 7 5 Assoziationsstrukturen 7 5 Marginale, bedingte und partielle Korrelation 7 52 Korrelationskoeffizienten bei vektoriellen Größen 8 53 Multiple Korrelation 8 54 Kanonische Korrelation 9 6 Hauptkomponentenanalyse 20 7 Faktorenanalyse 2 MULTIVARIATE SCHÄTZ UND TESTPROBLEME 2 Multivariate Schätz und Testprobleme Schätzung im Ein Stichprobenfall Seien x,, x n unabhängige Wiederholungen von x mit E(x) = µ und Kovarianz Var(x) = Σ x x x p Bezeichne X die (n p) Datenmatrix X = = x n x np Erwartungswertschätzung: Empirische Kovarianzmatrix: Alternativer Schätzer für Σ: x n n x = x i x = ; n n x ip x p S = n n (x i x)(x i x) = ( n ) n x ix i n x x Schätzung der Korrelationsmatrix: ˆR = (r ij ) p p Satz: ˆΣ = n S nicht erwartungstreu n r ij = n n s= (x si x i )(x sj x j ) s= (x si x i ) 2 n s= (x sj x j ) 2 x,, x n seien unabhängig und identisch p(µ, Σ) verteilt Dann gilt a) E( x) = µ, E(S) = Σ (Unverzerrtheit), b) cov( x) = n Σ, c) E x µ 2 E ˆµ µ 2 für jeden anderen unverzerrten linearen Schätzer ˆµ = ˆµ(x,, x n ) = a x + + a n x n Sind x, x n zusätzlich normalverteilt, dann gilt außerdem d) x N p ( µ, n Σ) und (n )S = Σ n (x i x)(x i x) T W p (Σ, n ) e) x und S sind unabhängig

MULTIVARIATE SCHÄTZ UND TESTPROBLEME 3 MULTIVARIATE SCHÄTZ UND TESTPROBLEME 4 2 Schätzung im Mehr Stichprobenfall Grundgesamtheit ist aufgespalten in disjunkten Klassen Ω,, Ω g Separat in den Klassen werden Stichproben gezogen Arithmetrisches Mittel in Klasse k: x () x () n (aus Ω ) x (g) x (g) ng (aus Ω g ) x (k) = n k nk Empirische Kovarianzmatrix in Klasse k: S (k) = nk n k Häufige Annahme: Σ = Σ 2 = Σ g = Σ x(k) (x(k) i i µ k = µ (k) µ (k) p x (k) )(x (k) i x (k) ) Σ k Wenn Gleichheit gilt, dann nimmt man die gepoolte empirische Kovarianzmatrix: S = g n g (n k )S (k) = g nk k= n g k= W = g nk k= Weiter bezeichnet (x(k) i (x(k) i x (k) )(x (k) i x (k) ) = n g W x (k) )(x (k) i x (k) ) die Streuung innerhalb der Gruppen bezeichnet B = g n k( x (k) x)( x (k) x) k= die Streuung zwischen den Gruppen, 3 Tests, Konfidenzbereiche für Erwartungswerte im Ein Stichprobenfall; Σ bekannt x,, x n unabhängige Realisierungen der Stichprobenvariablen x i N(µ, Σ); i =,, n Hypothesen: Teststatistik: H 0 ablehnen, wenn gilt: H 0 : µ = µ 0, H : µ µ 0 T 2 = n( x µ 0 ) T Σ ( x µ 0 ), T 2 H0 χ 2 (p) T 2 > χ 2 (p; α) 4 Tests, Konfidenzbereiche für Erwartungswerte im Ein Stichprobenfall; Σ unbekannt x,, x n unabhängige Realisierungen der Stichprobenvariablen x i N(µ, Σ) mit unbekanntem Σ Hypothesen: x = n g den großen Mittelwert über alle Klassen bezeichnet, mit k= n k x (k) Teststatistik: T s = H 0 : µ = µ 0, H : µ µ 0 n(n p) p(n ) ( x µ 0) T S ( x µ 0 ), n = n + n 2 + + n g H0 T s F (p, n p) für die Gesamtstreuungsmatrix T = g k= nk (x(k) i x)(x (k) i x) H 0 ablehnen, wenn gilt: T s > F (p, n p; α) gilt die folgende Zerlegung T = W + B

MULTIVARIATE SCHÄTZ UND TESTPROBLEME 5 2 DISKRIMINANZANALYSE/KLASSIFIKATION 6 5 Tests im Zwei Stichprobenfall unabhängige Stichproben X = (x,, x n ) T ist eine unabhängige Stichprobe aus einer N p (µ, Σ) verteilten Grundgesamtheit, X 2 = (x 2,, x 2n2 ) T ist eine unabhängige Stichprobe aus einer N p (µ 2, Σ) verteilten Grundgesamtheit, Es werden gleiche Kovarianzmatrizen vorausgesetzt Hypothesen: Teststatistik: H 0 ablehnen: H 0 : µ = µ 2, H : µ µ 2 T 2 = n n 2 ( x x 2 ) T S ( x x 2 ) n + n 2 mit S = n + n 2 2 [(n )S + (n 2 ) S 2 ] ni und S i = n i j= (x(i) j x (i) )( x (i) j x (i) ) T n + n 2 p (n + n 2 2) p T 2 > F (p; n + n 2 p ; α) weil n + n 2 p (n + n 2 2) p T 2 H0 F (p; n + n 2 p ) 6 Tests im Zwei Stichprobenfall verbundene Stichproben Hypothesen: ( ()) x i x (2) i (( ) µ N 2p ; µ 2 ( )) Σ Σ 2 Σ 2 Σ 22 Unbekannte Kovarianzmatrix: H 0 ablehnen (n p) n (n ) p d T S d d > F (p; n p; α) mit d = S d = Bekannte Kovarianzmatrix von d sei Σ d : H 0 ablehnen n Σn d i n n 2 Diskriminanzanalyse/Klassifikation 2 Relevante Größen: Wichtige Größen für das Klassifikationsproblem sind (d i d)(d i d) T n d T Σ d d > χ 2 (p; α) die a priori Wahrscheinlichkeiten p(r) = P (Y = r), r =,, k, die a posteriori Wahrscheinlichkeiten P (r x) = P (Y = r x), r =, k, die Verteilung der Merkmale, gegeben die Klasse, bestimmt durch die Dichten f(x ),, f(x k) die Mischverteilung der Population f(x) = p()f(x ) + + p(k)f(x k) Satz von Bayes: 22 Bayes Zuordnung: P (r x) = f(x r)p(r) f(x) = f(x r)p(r) p(i)p (x i) H 0 : µ = µ 2 µ µ 2 = 0, H : µ µ 2 d i = x () i x (2) i H 0 besagt: E(d i ) = 0 d i N p (µ µ 2 ; Σ + Σ 22 Σ 2 Σ 2 ) δ (x) = r P (r x) = max P (i x),,k

2 DISKRIMINANZANALYSE/KLASSIFIKATION 7 2 DISKRIMINANZANALYSE/KLASSIFIKATION 8 Fehlklassifikationswahrscheinlichkeiten: Es lassen sich verschiedene Formen der Fehlklassifikationen durch die Zuordnungsregel δ unterscheiden Wahrscheinlichkeit einer Fehlklassifikation, gegeben der feste Merkmalsvektor x ε(x) = P (δ(x) Y x) = P (δ(x) = Y x) = P (δ(x) x) Verwechslungswahrscheinlichkeit oder individuelle Fehlerrate ε rs = P (δ(x) = s Y = r) = f(x r)dx, x:δ(x)=s Globale Fehlklassifikationswahrscheinlichkeit oder Gesamt Fehlerrate ε = P (δ(x) Y ) r s Wahrscheinlichkeit einer Fehlklassifikation, gegeben das Objekt entstammt der Klasse r Es gilt der Zusammenhang: ε r = P (δ(x) r Y = r) = s r ε = P (δ(x) Y ) = P (δ(x) r Y = r)p(r) = ε r p(r) = ε rs p(r) r= s r r= ε = P (δ(x) Y ) = ε rs P (δ(x) Y x)f(x)dx = Optimalität der Bayes Zuordnung Die Bayes Zuordnung minimiert die Gesamtfehlerrate ε Äquivalente Diskriminanzfunktionen: a) d r (x) = P (r x), b) d r (x) = f(x r)p(r)/f(x) c) d r (x) = f(x r)p(r) d) d r (x) = log(f(x r)) + log(p(r)) δ (x) = r P (r x) = max P (i x),,k r= ε(x)f(x)dx Maximum Likelihood (ML) Zuordnungsregel 23 Kostenoptimale Bayes Zuordnung: δ ML (x) = r f(x r) = max f(x i),,k c(i, j) = c ij = Kosten einer Zuordnung eines Objekts aus Klasse i in die Klasse j Für I = j gelte c ii = 0 dh die Kosten einer richtigen Zuordnung sind Null, während c ij 0 für i j Bedingtes Risiko, gegeben x Individuelles Risiko Risiko, gegeben Klasse i r(x) = c i,δ(x) P (i x) r ij = c ij P (δ(x) = j Y = i) = c ij r i = r ij j= x:δ(x)=j f(x i)dx Das gesamte Bayes Risiko, dh die zu erwartenden Kosten, lassen sich darstellen durch R = E(c(Y, δ(x))) = r i p(i) = r(x)f(x)dx Bayes Zuordnung mit Kosten Bei Vorliegen des Beobachtungsvektors x wird das Bayes Risiko minimiert durch die Zuordnung Mit den Diskrimininanzfunktionen erhält man δ (x) = r P (i x)c ir = min d r (x) = j=,,k P i (i x)c ir, δ (x) = r d r (x) = max,,k d i(x) P (i x)c ij

2 DISKRIMINANZANALYSE/KLASSIFIKATION 9 2 DISKRIMINANZANALYSE/KLASSIFIKATION 0 24 Zuordnungsregel unter der Voraussetzung Normalverteilung Klassenverteilungen: Bayes Regel: f(x i) = (2π) p/2 (det Σ i ) /2 exp{ 2 (x µ i) T Σ i (x µ i )} 25 Fishersche Diskriminanzanalyse x i x ini in der Klasse i Grundprinzip (Zwei Klassen Fall): Projektion y = a T x mit a =, so dass das folgende Kriterium maximiert wird d i (x) = ln(f(x i)) + ln(p(i)) d i (x) = 2 (x µ i) T Σ i (x µ i ) 2 ln(det Σ i) + ln p(i), i =,, k Zusätzlich unabhängige standardisierte Merkmale, Σ i = σ 2 I: d i (x) = x µ i 2 2σ 2 + ln p(i) Sind die a priori Wahrscheinlichkeiten gleich groß, so reduziert sich die Diskriminanzfunktion auf d i (x) = x µ i 2 Klassenweise identische Kovarianzmatrizen; Σ i = Σ, i =,, k : d i (x) = 2 (x µ i) T Σ (x µ i ) + ln p(i) Lösung: Q(a) = (ȳ ȳ 2 ) 2 s 2 + s 2 2 ȳ i = ni a T x ij = a T x i Klassenmittelpunkt, n i j= s 2 i = (a T x ij a x i ) 2 Quadratische Abweichungen i te Klasse mit a = W ( x x 2 ) W = (n + n 2 2)S =, 2 ni (x ij x i )(x ij x i ) T j= Für k=2 erhält man: d i (x) = µ T i Σ x 2 µt i Σ µ i + ln p(i), i =,, k d(x) = d (x) d 2 (x) = [x 2 (µ + µ 2 )] T Σ (µ µ 2 ) ln p(2) p() Für die ML Regel sind die ln Terme wegzulassen Schätzer für µ k und Σ : ˆµ i = x i, ˆΣ = S = N g ni (x in x i )(x in x i ) T n= Mehr Klassen Fall: Kriterium: Resultierende Eigenvektoren: Resultierende Eigenwerte: mit Q(a) = g n i(ȳ i ȳ) 2 g s2 i a,, a q, q = rg(b) λ = at Ba a T Wa B = W = max,, λ q = a qba q a T q Wa q g n i ( x i x)( x i x) T g ni (x ij x i )(x ij x i ) T j=

3 CLUSTERANALYSE 3 CLUSTERANALYSE 2 3 Clusteranalyse Objektmenge Ω = {a,, a n } Zugehörige Merkmalsvektoren {x,, x n } Gesucht: Partition = disjunkte vollständige Zerlegung C,, C g so daß g C i = {a,, a n }, C i C j = 3 Distanzmaße für Objekte: d : Ω Ω IR + mit d(a i, a i ) = 0, d(a i, a j ) 0, d(a i, a j ) = d(a j, a i ) Für metrische Distanzmaße: zusätzlich Dreiecksungleichung 32 Distanzmaße: Binäre Merkmale d(a i, a j ) d(a i, a m ) + d(a m, a j ) für alle a i, a j, a m x T i = (x i,, x ip ) mit x ij {0, } h ij (y, z) bezeichnet die Anzahl der übereinstimmenden Komponenten in x i und x j mit Ausprägung y in x i und z in x j h ij (y, z) = {s (x is, x js ) = (y, z)} für (y, z) {(0, 0), (0, ), (, 0), (, )} Matching Koeffizient s ij = h ij(, ) + h ij (0, 0) p Distanz Matching Koeffizient (Anzahl nicht übereinstimmender Merkmale) d ij = s ij Metrische Merkmale L q Metrik q = City Block Metrik q = 2 Euklidische Metrik Mahalanobis Distanz mit empirischer Kovarianzmatrix S 33 Distanzmaße für Klassen: Form: D(C r, C s ) C r, C s Ω Single Linkage Verfahren 2 Complete Linkage Verfahren 3 Average Linkage Verfahren 4 Zentroid Verfahren x = (x,, x p ), y = (y,, y p ) ( p ) /q d(x, y) = x i y i q d(x, y) = (x y) T S (x y) D(C r, C s ) = min a i Cr a j Cs D(C r, C s ) = max a i Cr D(C r, C s ) = n r n s mit n i = C i a j Cs d(a i, a j ) d(a i, a j ) ai Cr aj Cs d(a i, a j ) D(C r, C s ) = x r x s 2 mit x i = n i xj Ci x j

3 CLUSTERANALYSE 3 4 MULTIVARIATE LINEARE REGRESSION 4 34 Einige Grundbegriffe: 35 Gütekriterien: quantitative Merkmale Mittelwert in Klasse C k xk = n k Streuung in Klasse C k Streuung der Partition IC innerhalb der Klassen nk x i mit n k = C k W(C k ) = (x i x k )(x i x k ) T xi Ck Partition IC = {C,, C g } Varianzkriterium g H(IC) = x i x k 2 k= xi Ck g W(IC) = W(C k ) k= Streuung der Partition IC zwischen den Klassen B(IC) = Die Gesamtstreuung ist zerlegbar in g n k ( x k x)( x k x) T mit x = n n k= n T = (x i x)(x i x) T T = W(IC) + B(IC) x i Minimum Distanz Eigenschaft x i x k x i x j für x i C k 2 Determinantenkriterium H(IC) = W(IC) Minimum Distanz Eigenschaft (x i x k ) T W(IC) (x i x k ) (x i x j ) T W(IC) (x i x j ) für x i C k 3 Verallgemeinertes Determinantenkriterium g H(IC) = n k ln( W(C k ) ) n k k= 4 Multivariate lineare Regression 4 Konzept (y i, x i ), i =,, n mit y T i x T i = (y i,, y iq ) q abhängige Variablen = (, x i,, x ip ) p konstante und fixe Prädiktoren

4 MULTIVARIATE LINEARE REGRESSION 5 4 MULTIVARIATE LINEARE REGRESSION 6 Klassisches lineares Modell: Matrixdarstellungen: Vektorielle Form bzw und als Gesamtmodell y i = y iq Multivariate Formulierung I Multivariate Formulierung II bzw als Gesamtmodell y ij = x T i β (j) + ε ij, i =,, n, j =, q, x T i x T i β T (j) = (β 0j, β j, β qj ), y T y T n = (y (),, y (q) ) = x T mit X 0 = x T n Annahmen: () E(ɛ i ) = 0 (2) cov(ɛ i ) = Σ, i =,, n cov(ɛ i, ɛ j ) = 0, i j cov(ɛ (s), ɛ (t) ) = σ st I, s t (3) Normalverteilung, ɛ i N(0, Σ) x T x T n x T x T n β () ε i + x T i y i = X i β + ɛ i y = Xβ + ɛ β (q) ε iq β T = (β T (),, β T (q)) ɛ T (β (),, β (q) ) + ɛ T n (β (),, β (q) ) + (ɛ (),, ɛ (q) ) Y = X 0 B + E β 0j β pj y j, β (j) =, y (j) =, ɛ (j) = y nj ɛ j ɛ nj 42 Schätzen Kleinste Quadrate Schätzung Lösung (voller Rang von X): Als Vektor mit Schätzung der Kovarianz: q (y (j) X 0 β (j) ) T (y (j) X 0 β (j) ) min j= ˆβ (j) = (X T 0 X 0 ) X T 0 y (j) bzw ˆB = (X T 0 X 0 ) X T 0 Y ˆβ = BDiag{(X T 0 X 0 ) X T 0 }y 0 oder ˆβ = (X T X) X T y y T 0 = (y T (),, y T (q)), y T = (y T,, y T n ) ˆΣ = n p ˆΣ = n T (y i X i ˆβ)(yi X i ˆβ) Gauß Markov Theorem (Annahmen () und (2)) () E( ˆB) = B, E( ˆΣ) = Σ (2) Var(ˆβ (i), ˆβ (j) ) = σ ij (X T 0 X 0 ) (3) ˆB ist BLUE Weiter gilt mit Normalverteilungsannahme (4) ˆB ist normalverteilt (5) Q e = ÊT Ê W p(σ, n p ) (6) ˆB und ˆΣ sind unabhängig n p ET E E = Y X 0 ˆB Residuenmatrix

5 ASSOZIATIONSSTRUKTUREN 7 5 ASSOZIATIONSSTRUKTUREN 8 43 Testverfahren Tests: (Unter Normalverteilungsannahme) H 0 : CB = Γ H : CB Γ rg(c) = s Λ = Q e Λ(q, n p, s) Q 0 mit Q e = (Y X 0 ˆB) T (Y X 0 ˆB) ohne Restriktion Q 0 = (Y X 0 ˆB0 ) T (Y X 0 ˆB0 ) mit Restriktion H 0 ablehnen, wenn Λ < Λ α (q, n p, s) 52 Korrelationskoeffizienten bei vektoriellen Größen Ausgangspunkt: Zufallsvektoren y, x und z mit y µ y y µ = E x = µ x, Σ = cov x = z z µ z Marginale Korrelationsmatrix für y gegeben x: Σ yy Σ yx Σ yz Σ xy Σ xx Σ xz Σ zy Σ zx Σ zz K = (k ij ) mit k ij = σ yixj /(σ yi σ xi ), 5 Assoziationsstrukturen 5 Marginale, bedingte und partielle Korrelation Marginale Korrelation von Y und X ρ Y X = Bedingte Korrelation von Y und X, gegeben Z = z ρ Y X Z=z = cov(y, X) σ Y σ X cov(y, X Z = z) var(y Z = z) var(x Z = z) Partielle Korrelation von Y und X nach Elimination des linearen Anteils von Z ρ XY Z = cov(ε Y Z, ε X Z ) var(εy Z ) var(ε X Z ) = ρ Y X ρ XZ ρ Y Z, ρ 2 Y Z ρ 2 XZ mit ε Y Z, ε X Z als Residuen aus den Regressionsmodellen Y = β 0 + βz + ε Y Z und X = γ 0 + γz + ε X Z σ yixj Einträge von Σ yx Matrix der bedingten Kovarianzen für y und x gegeben z = z: Σ yx z= z = (cov(y i, x j z = z)) ij Partielle Korrelation skalarer Merkmale y und x nach Elimination des linearen Anteils von z: ϱ xy z = cov(ε y z, ε x z ) var(εy z ) var(ε x z ) = ε y z = y z T β und ε x z = x z T γ 53 Multiple Korrelation σ 2 y Σ yz Σ z σ yx Σ yz Σ z Σ zx, Σ zy σ 2 x Σ xz Σ z Σ zx Ausgangspunkt: lineares Regressionsmodell y = x T β + ε y x, damit ergibt sich var(x T β) = Σ yx Σ x Σ xy = cov(y, x T β) var(y x) = var(ε y x ) = σy 2 Σ yx Σ x Σ xy Für (Y, X, Z) gemeinsam normalverteilt gilt ρ Y X Z=z = ρ XY Z und die Zerlegung Multipler Korrelationskoeffizient: var(y) = var(x T β) + var(y x) R = ϱ(y, x T β) = cov(y, x T β) var(y) var(xt β) Es gilt R 2 = var(xt β) var(y) = var(y x) var(y)

5 ASSOZIATIONSSTRUKTUREN 9 6 HAUPTKOMPONENTENANALYSE 20 54 Kanonische Korrelation Ausgangspunkt: Zufallsvektoren y und x der Länge p bzw q mit Σ xy = cov(x, y) Betrachte Maximierungsproblem ϱ(a T x, b T y) a,b max ϱ(a, b) = ϱ(a T x, b T y) = mit der Nebenbedingung var(a T x) = var(b T y) = cov(a T x, b T y) var(at x) var(b T y) = a T Σ xy b at Σ xx a b T Σ yy b Lösen des Maximierungsproblems für i =,, s = min{p, q} mit ergibt cov(a i x, a j x) = cov(b i y, b j y) = 0 für i j a i, b i als die iten Korrelationsvektoren, u i = a T i x, v i = b T i y als ite Korrelationsvariablen und ϱ i = ϱ(u i, v i ) als ite kanonische Korrelationskoeffizienten Für u T = (u,, u s ) und v T = (v,, v s ) gilt cor ( ) u v Schärfere Formulierung des Maximierungsproblems: 0 ϱ 0 0 0 ϱ s = ϱ 0 0 0 ϱ s 0 6 Hauptkomponentenanalyse Ausgangsgrößen: Problem: y i = a T i x, i =,, p so dass Restriktionen: () a T i a i = (2) a T i a j = 0, j =,, i Äquivalent ist cov(y i, y j ) = 0, j =,, i Lösung: Σ = ΨΛΨ T Λ = diag(λ,, λ p ), λ λ 2 λ p Ψ = (a,, a p ) Eigenschaften: x T = (x,, x p ) µ = E(x), Σ = cov(x) var(y i ) = a T i Σa i maximal y = Ψ T x mit y T = (y,, y p ) () cov(y) = Λ (var(y i ) = λ i, cov(y i, y j ) = 0, i j) (2) tr(σ) = tr(λ) ϱ(a T i x, b T i y) ai,bi max mit den Nebenbedingungen var(a T i x) = var(b T i y) =, i =,, s cov(a T i x, a T j x) = cov(b T i y, b T j y) = 0, j =,, i Lösungen (a i, b i ) über das kombinierte Eigenwertproblem (Σ xy Σ yyσ yx λ i Σ xx )a i = 0 (Σ yx Σ xxσ xy λ i Σ yy )b i = 0

7 FAKTORENANALYSE 2 7 Faktorenanalyse Modell: X µ = ΓF + U, X (p ) - Vektor der beobachtbaren Größen µ Erwartungswert von X F (k ) - Vektor der Faktoren Γ (p k) - Matrix der Faktorladungen U (p ) - Vektor der spezifischen Faktoren Annahmen: () E(F) = 0 (2) U V (0, Ψ), mit Ψ = diag(ψ 2,, Ψ 2 p) (3) cov(f, U) = 0 (4) cov(f) = I orthogonales Faktormodell Fundamentaltheorem für s = cov(x) Insbesondere: s = ΓΓ + Ψ m var(x i ) = γij 2 + Ψ 2 i j=, cov(x, F) = Γ Rotationsproblem (Eindeutigkeit von Γ bei gegebenem k, Ψ) Γ Ψ Γ = diag(λ,, λ k ), λ λ 2,, λ k