9. November Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. Matrizenrechnung. 2. Multiple Korrelationen
|
|
- Arnim Kruse
- vor 5 Jahren
- Abrufe
Transkript
1 Ruhr-Universität Bochum 9. November / 62
2 Methodenlehre III NA 3/73 Telefon: Internet: Vorlesung: Montag, Uhr, HGA 10 Thema: Multivariate statistische Verfahren 2 / 62
3 Statistik-Team Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab Koordination: Dr. Helge Thiemann Helge.Thiemann-i5m@ruhr-uni-bochum.de 0234/ Gafo Montag (GAFO 04/271) Linda Engelbrecht Linda.Engelbrecht@web.de Montag (GAFO 03/901); Montag (GAFO 03/901); Freitag (GAFO 03/974 ) Max Willenberg max.willenberg@gmx.de 3 / 62
4 Multivariate statistische Verfahren Objekte mit vielen Merkmalen Inhaltsverzeichnis 1. Noch ein wenig 4. Multivariate Mittelwertvergleiche 5. Diskriminanzanalyse 6. Clusteranalyse 7. To be done 4 / 62
5 1. Einige (sehr kurze) Vorbemerkungen zur 5 / 62
6 Abbildungen von Vektoren Beispiel: Es seien x 1 = ( ) 1 2 ; x2 = ( 1 3) ; x3 = ( ) 1 2 Vektoren und A = 1 2 ( ) eine (quadratische) Matrix Durch Multiplikation der Vektoren x 1, x 2, x 3 mit der Matrix A ergeben sich neue Vektoren. 6 / 62
7 Abbildungen von Vektoren Durch Multiplikation der Vektoren x 1, x 2, x 3 mit der Matrix A ergeben sich neue Vektoren: ) ( ) x 1 = y 1 = Ax 1 = x 2 = x 3 = ( 1 2 ( ) 1 3 ( ) 1 2 y 2 = Ax 2 = 1 2 ( 4 3 y 3 = Ax 3 = ( ) 3 1 ) Die Punkte y 1, y 2, y 3 erhält man aus x 1, x 2, x 3 durch eine Drehung um 45% gegen den Uhrzeigersinn. Die obige Matrix beschreibt also eine Drehung. 7 / 62
8 Y 1 X 1 Y 3 X 3 X 2 Y 2 8 / 62
9 Beachte: Bei der obigen Drehung ändern alle Vektoren ihre Richtung. Betrachtet man eine andere Matrix, z.b. ( ) 1 2 B = 2 1 so erhält man durch Multiplikation der Vektoren x 1, x 2, x 3 mit der Matrix B die neuen Vektoren: ( ) ( ) ( ) y 1 = Bx 1 = ; y 2 = Bx 2 = ; y 3 = Bx In diesem Fall ändert sich auch die Länge der Vektoren! Jede Matrix beschreibt eine Abbildung, die den Punkten der Ebene neue Punkte zuordnet. 9 / 62
10 Y 1 X 1 Y 3 Y 2 X 3 X 2 10 / 62
11 Frage: Gibt es Vektoren, die bei Multi plikation mit einer Matrix ihre Richtung nicht ändern? Für die Matrix A gibt es solche Vektoren nicht! Für den Vektor gilt: x 1 = ( ) 1 1 Für den Vektor gilt: Bx 1 = ( ) ( 1 1) = ( 3 3) = 3 ( 1 1) = 3x 1 Bx 2 = ( ) ( ) 1 1 ( ) x 2 = 1 1 = ( 1 1 ) ( ) = ( 1) 1 1 = ( 1)x 2 D.h. Für die Matrix B existieren solche Vektoren (man beachte: wir identifizieren die Richtung von Bx 2 und x 2 als dieselbe)! 11 / 62
12 Y 1 Y 2 X 1 X 2 12 / 62
13 1.1 Definition Ist A eine n n Matrix und x ein n-dimensionaler Vektor, dann heißt x Eigenvektor der Matrix A zum Eigenwert λ, falls die Gleichung Ax = λx erfüllt ist. Beachte: Mit x ist auch jedes Vielfache von x Eigenvektor. Die Matrix A hat immer n Eigenwerte λ 1,..., λ n (diese sind nicht notwendig reelle Zahlen). Symmetrische Matrizen (A = A T ) haben reelle Eigenwerte. Z.B. ist die Matrix aller von beobachteten Variablen symmetrisch! Die Berechnung von Eigenwerten und Eigenvektoren ist nicht einfach und wird in dieser Vorlesung nicht besprochen. 13 / 62
14 1.2 Determinante einer quadratischen Matrix Bezeichnung: Ist A eine n n Matrix und sind λ 1,..., λ n die Eigenwerte von A, dann heißt die Größe Determinante der Matrix A A = λ 1 λ 2... λ n = Beachte: Eigenwerte und Determinanten werden nur für quadratische Matrizen definiert (Zeilenzahl = Spaltenzahl) n j=1 λ j 14 / 62
15 15 / 62
16 Beispiel 2.1 (Entwicklungspsychologie) Im Rahmen einer Studie in der Entwicklungspsychologie soll der Zusammenhang zwischen Abstraktionsfähigkeit (x) und sensomotorischer Koordination (y) untersucht werden. Zusätzlich wird das Alter der Kinder erhoben (z) Insgesamt werden 15 Kinder im Alter von 6-10 Jahren untersucht 16 / 62
17 Daten Kind Abstraktions- sensomotor. Alter fähigkeit (x) Koord. (y) (z) / 62
18 Auswertung: Für den Korrelationskoeffizient von Pearson (vgl. Methodenlehre II, 2.2) erhält man für die Korrelation der Variablen x (Abstraktionsfähigkeit) und y (sensomotorische Koordination) ˆρ x,y = 0.89 Obwohl der Korrelationskoeffizient sehr hoch ist, is es in vielen Fällen sinnvoll zu untersuchen, ob dieser hohe Wert auf einen Einfluss der dritten Variablen (Alter) zurückführbar ist. In einem solchen Fall spricht man von einer Scheinkorrelation. D.h. ˆρ x,y ist zwar im mathematischen Sinn einen Korrelation, aber der gefundene Zusammenhang zwischen Abstraktionsfähigkeit und sensomotorischer Koordination ist (teilweise) durch eine dritte Variable erklärbar und kann nicht als kausal interpretiert werden. Ziel: Berechnung einer Korrelation, die von dem Einfluss der dritten Variablen Alter bereinigt ist = Partialkorrelation. 18 / 62
19 2.2. Partialkorrelation Modell: Daten (x i, y i, z i ) i=1,...,n. Im Beispiel ist x i die Abstraktionsfähigkeit, y i die sensomotorische Koordination und z i das Alter des i-ten Kinds Gesucht: Ein um den Einfluss der Variablen z bereinigtes Abhängigkeitsmaß zwischen den Variablen x und y Methode: Berechne die (lineare) Regressionsgerade für die Daten (x1, z 1),...,(x n, z n): x = â 0 + â 1z (vgl. Methodenlehre II, 2.11) und die Residuen x i = x i (â 0 + â 1z i ) i = 1,..., n Berechne die (lineare) Regressionsgerade für die Daten (y1, z 1),..., (y n, z n): y = ˆb 0 + ˆb 1z (vgl. Methodenlehre II, 2.11) und die Residuen y i = y i (ˆb 0 + ˆb 1z i ) i = 1,..., n 19 / 62
20 Bestimme die Korrelation zwischen den Residuen (x1, y 1 ),..., (xn, yn ) n ˆρ x,y z = ˆρ x,y = i=1 (x i n i=1 (x i x )(y i y ) x ) 2 n i=1 (y i y ) 2 Die Größe ˆρ x,y z heißt Partialkorrelation, zwischen x und y aus der das Merkmal z herauspartialisiert wurde. Die Partialkorrelation ist also eine bivariate Korrelation zwischen Regressionsresiduen 20 / 62
21 2.3 Bemerkung (1) Man kann zeigen dass gilt: Dabei ist ˆρ x,y ˆρ x,z ˆρ y,z ˆρ x,y z = (1 ˆρ 2 x,z)(1 ˆρ 2 y,z) ˆρx,y der Korrelationskoeffizient zwischen den Variablen x und y ˆρx,z der Korrelationskoeffizient zwischen den Variablen x und z ˆρy,z der Korrelationskoeffizient zwischen den Variablen y und z (2) Die Partialkorrelation ist ein Maß für den linearen Zusammenhang von zwei Variablen x und y, aus dem der lineare Einfluss einer dritten Variablen z eliminiert wurde. Genauer: Die Partialkorrelation bemisst, inwieweit man aus den Vorhersagefehlern bei der linearen Prognose von x durch z die Vorhersagefehler bei der linearen Prognose von y durch z linear vorhersagen kann - und umgekehrt. (3) Gibt es mehr als drei Variablen, so können Partialkorrelationen höherer Ordnung gebildet werden, in dem die Residuen xi, yi mit Hilfe des multiplen linearen Regressionsmodells (vgl. Methodenlehre II, 2.23) bestimmt werden (1) 21 / 62
22 Beispiel (Fortsetzung von Beispiel 2.1) Lineare Regression von x bzgl. z x = 1.246z Lineare Regression von y bzgl. z y = 1.420z 1.13 Regressionsresiduen x y 1,06 0,61 0,57 1,77 1,32 2,35 1,32 1,35 1,07 0,93-0,19-0,81-0,43-1,23-0,68 0,35-0,43-2,23-1,19 0,19 0,07 0,93-0,94-0,39-3,92-3,07 0,07-1,07 2,32 0,35 22 / 62
23 ˆρ x,y z = 0.72 Die Korrelation zwischen Abstraktionsfähigkeit und sensomotorischen Koordinationsleistungen der Kinder ist somit von 0.89 auf 0.72 gesunken. Die Differenz ist auf das Alter der Kinder zurückzuführen Beachte: mit den Werten ˆρx,y = 0.89 ˆρx,z = 0.77 ˆρy,z = 0.80 kann man die Partialkorrelation ˆρ x,y z auch mit Hilfe der Formel (1) berechnen 23 / 62
24 Signifikanztest für partielle Ein Test zum Niveau α für die Hypothese die Merkmale X und Y unter Z sind unkorreliert H 0 : ρ x,y.z = 0 lehnt die Nullhypothese zu Gunsten der Alternative H 1 : ρ x,y.z 0 ab, falls n 3ˆρx,y.z 1 ˆρ 2 x,y.z > t n 3,1 α/2 gilt. Man vergleiche diesen Test mit dem Test auf eine signifikante Korrelation zwischen zwei Merkmalen (Methodenlehre II, 2.5) 24 / 62
25 Partielle in SPSS Kontrollvariablen Alter Abstraktionsfähigkeit sensomotorische Koordination Korrelation Signifikanz (zweiseitig) Freiheitsgrade Korrelation Signifikanz (zweiseitig) Freiheitsgrade Abstraktions fähigkeit 1,000. 0,722, sensomotorische Koordination,722, , / 62
26 Semipartialkorrelationen Wird die dritte Variable z nur aus einer Variablen (z.b. x) herauspartialisiert, so spricht man von einer Semipartialkorrelation. Man berechnet die (lineare) Regressionsgerade für die Daten (x 1, z 1 ),..., (x n, z n ): x = â 0 + â 1 z und betrachtet die Vorhersagefehler x i = x i â 0 â 1 z i Dann bestimmt man die Korrelation zwischen (x 1, y 1),..., (x n, y n ): ˆρ y(x z) = ˆρ x,y = n i=1 (x i x )(y i y ) n i=1 (x i x ) 2 n i=1 (y i y ) 2 26 / 62
27 Alternative Darstellung für die Semipartialkorrelationen Man kann zeigen dass gilt: ˆρ y(x z) = ˆρ x,y ˆρ x,z ˆρ y,z 1 ˆρ 2 x,z (2) Dabei ist ˆρx,y der Korrelationskoeffizient zwischen den Variablen x und y ˆρx,z der Korrelationskoeffizient zwischen den Variablen x und z ˆρy,z der Korrelationskoeffizient zwischen den Variablen y und z Bemerkung: Die Semipartialkorrelation bemisst, inwieweit man aus den Vorhersagefehlern bei der linearen Prognose von x durch z die Werte von y linear vorhersagen kann. Die quadrierte Semipartialkorrelation ist der Anteil der Varianz von y, der durch die Variable x zusätzlich zu der Variablen z erklärt werden kann. Die Semipartialkorrelation ist immer kleiner als die Partialkorrelation. 27 / 62
28 Berechnung der Semipartialkorrelationen in Beispiel 2.1 Lineare Regression von x bgzl. z x = 1.246z Regressionsresiduen und Beobachtungen x y 1,06 8 0, , , , ,19 8-0,43 9-0, ,43 8-1,19 9 0, ,94 7-3, , , / 62
29 ˆρ y(x z) = 0.43 Die Korrelation zwischen Abstraktionsfähigkeit und sensomotorischen Koordinationsleistungen der Kinder ist somit von 0.89 auf 0.43 gesunken. Die Differenz ist auf das Alter der Kinder zurückzuführen. Beachte: mit den Werten ˆρx,y = 0.89 ˆρx,z = 0.77 ˆρy,z = 0.80 kann man die Semipartialkorrelation ˆρ y(x z) auch mit Hilfe der Formel (2) berechnen. 29 / 62
30 Semipartialkorrelationen in SPSS Die Semipartialkorrelationen (in SPSS heißen diese Teil-) werden (auf Wunsch) als Ergänzung zu den Kleinsten Quadrate-Schätzungen im multiplen linearen Regressionsmodell (vgl. Methodenlehre II, 2.23) ausgegeben. Signifikanztest für die Semipartialkorrelationen fehlen. Modell 1 (Konstante) Alter Abstraktionsfähigkeit Nicht standardisierte Koeffizienten Standardisierte Koeffizienten Regressions koeffizientb Standardfehler Beta T Sig. -1,469 1,795 -,818,429,510,730 Koeffizienten a a. Abhängige Variable: sensomotorische Koordination Koeffizienten a,328,202,289,671 1,555 3,615,146,004 Modell 1 Nullter Ordnung Partiell Alter Abstraktionsfähigkeit,803,892,410,722 a. Abhängige Variable: sensomotorische Koordination Teil,185, / 62
31 Eine abschließende Bemerkung: Ob ein Partial- oder Semipartialkorrelationskoeffizient zur Beschreibung eines Zusammenhangs gewählt wird, hängt von theoretischen Überlegungen ab: Beeinflusst eine dritte Variable (z) ursächlich beide Variablen x und y Partialkorrelation Wird der Zusammenhang zwischen den Variablen x und y durch die dritte Variable z vermittelt (z ist mit y korreliert und beinflußt x) Semipartialkorrelation 31 / 62
32 32 / 62
33 3.1 Grundlegende/einleitende Bemerkungen zur Faktorenanalyse Die Faktorenanalyse ist ein Sammelbegriff für eine Reihe von explorativen Verfahren, um für wechselseitige Beziehungen vieler Variablen ein einfaches Erklärungsmodell zu bestimmen Typisches Beispiel: Schulnoten ( 10 inklusive Kopfnoten) Erklärung durch Intelligenz und Disziplin. Man Beachte: die Größen Intelligenz und Disziplin sind nicht direkt beobachtbar Ziel: Aus der Korrelationsmatrix der beobachtbaren Variablen sollen möglichst wenige, wechselseitig voneinander unkorrelierte Faktoren extrahiert werden, so dass möglichst wenig Information über die beobachteten Variablen verloren geht sich eine interpretierbare Struktur ergibt, durch die die Faktoren bezüglich der gemeinsamen Anteile der Ausgangsvariablen benannt werden können 33 / 62
34 Das Ergebnis der Faktorenanalyse sind wechselseitig voneinander unkorrelierte Faktoren, die die Zusammenhänge zwischen den beobachtbaren Variablen erklären In dieser Vorlesung betrachten wir nur ein Verfahren der Faktorenanalyse: Hauptkomponentenanalyse (PCA: principal component analysis) Es gibt viele andere Verfahren der Faktorenanalyse, die sich vor allem aus anderen Modellannahmen ableiten. Z.B. Explorative Faktorenanalyse Image Analyse Kanonische Faktorenanalyse 34 / 62
35 Heuristisches Prinzip: Schritt 1: Aus den der gemessenen Variablen wird eine synthetische Variable (Faktor) konstruiert, die mit allen gemessenen Variablen möglichst hoch korreliert ist. Dieser Faktor ist also eine theoretische (nicht beobachtbare) Variable. Die Partialkorrelationen bzgl. dieses Faktors erfassen diejenigen Zusammenhänge, die durch den Faktor nicht erklärt werden können. Schritt 2: Aus den Restkorrelationen wird dann mit derselben Methode ein weiterer Faktor bestimmt, der - mit dem ersten Faktor unkorreliert ist. - die verbleibenden Zusammenhänge möglichst gut erklärt. Dieses Verfahren wird dann fortgesetzt. Wie wird das gemacht? 35 / 62
36 3.2 Das Grundprinzip des Faktormodells in einem Beispiel Klausurergebnisse in 5 Fächern (Mechanik, Vektorrechnung, Algebra, Analysis, Statistik) In den Klausuren zur Algebra (x 3 ), Analysis (x 4 ) und Statistik (x 5 ) konnten während der Klausur Bücher verwendet werden (O: open book); in den Klausuren zur Mechanik (x 1 ) und Vektorrechnung (x 2 ) nicht (C: closed book) Daten (Ergebnisse in Punkten) C O x 1 x 2 x 3 x 4 x Datensatz unter methodenlehre3.html verfügbar 36 / 62
37 Korrelationsmatrix für das Beispiel der Klausurergebnisse Beachte: Es bestehen zwischen allen Variablen! kleinste Korrelation besteht zwischen den Ergebnissen der Klausuren in Mechanik und Statistik (x 1 und x 5 ) größte Korrelation besteht zwischen den Ergebnissen der Klausuren in Algebra und Analysis (x 3 und x 4 ) 37 / 62
38 Beachte: x mi bezeichne das Ergebnis des m-ten Studenten in Klausur i (i = 1,..., 5 m = 1, 2,..., 87) Es ist zu erwarten: (1) dass eine Korrelation zwischen den verschiedenen Klausuren besteht. Die Ergebnisse könnten z.b. von der Intelligenz oder einer anderen nicht beobachtbaren Eigenschaft der Kandidaten abhängen. Diese Eigenschaft der Person m wird mit f m bezeichnet. (2) dass das Ausmaß dieser Eigenschaft für die Bearbeitung der verschiedenen Klausuren unterschiedlich ist. Das Ausmaß, in dem diese Eigenschaft für die Bearbeitung der Klausur i erforderlich ist, wird mit a i bezeichnet 38 / 62
39 Mathematische Annahme: Faktormodell x m1 = f m a 1 x m2 = f m a 2 x m3 = f m a 3 x m4 = f m a 4 x m5 = f m a 5 + Rest D.h. Das Klausurergebnis x mi (des m-ten Studenten im Fach i) setzt sich als Produkt zusammen aus der Eigenschaft (z.b. der allgemeinen Intelligenz) der m-ten Person (f m ) (man spricht von einem Faktor) und dem Ausmaß einer Eigenschaft (z.b. der allgemeinen Intelligenz), das für die Bearbeitung der Klausur i in diesem Fach erforderlich ist (a i ) Beachte: Der Faktor wird mathematisch konstruiert, und seine Interpretation (z.b. als allgemeine Intelligenz) erfolgt erst später. 39 / 62
40 Beachte: es kann weitere Faktoren geben! Beispiel: Mit einer Eigenschaft (z.b. der allgemeinen Intelligenz) sind die Klausurergebnisse nicht eindeutig bestimmt und es bleibt oft ein nicht erklärbarer Rest (man beachte der Rest ist für jede Klausur ein anderer). Zum Beispiel könnten Klausuren mit Buchbenutzung andere Eigenschaften erfordern als Klausuren ohne Buchbenutzung, z.b. Disziplin (um etwas auswendig zu lernen). Es ist daher in vielen Fällen sinnvoll einen weiteren (und evtl. auch mehrere) Faktor(en) einzuführen. In der Regel sucht man nach möglichst wenigen Faktoren. 40 / 62
41 Ein zweiter Faktor: Bezeichnet man - die Ausprägung des ersten Faktors (z.b. der allgemeinen Intelligenz) der Person m mit f m1 - das Ausmaß, in dem die Klausur i den ersten Faktor (z.b. allgemeine Intelligenz) erfordert mit a i1 - die Ausprägung des zweiten Faktors (z.b. der Disziplin ) der Person m mit f m2 - das Ausmaß, in dem die Klausur i den zweiten Faktors (z.b. die Disziplin ) erfordert mit a i2 so erhält man das folgende Modell x m1 = f m1 a 11 + f m2 a 12 x m2 = f m1 a 21 + f m2 a 22 x m3 = f m1 a 31 + f m2 a 32 x m4 = f m1 a 41 + f m2 a 42 x m5 = f m1 a 51 + f m2 a 52 + Rest Die Fähigkeit, die Klausur zu bearbeiten, stellt sich als gewichtete Summe aus den Komponenten Intelligenz und Disziplin dar. Diese beiden Größen bezeichnen wir als Faktoren 41 / 62
42 3.3 Das allgemeine Faktormodell x mi = f m1 a i1 + + f mq a iq (m = 1,..., n i = 1,..., p) + Rest = q j=1 f mj a ij + Rest Interpretation: n ist die Anzahl der Versuchsperson; p bezeichnet die Anzahl der Variablen/Merkmale, die bei jeder Versuchsperson gemessen werden. x mi repräsentiert die ite Komponente der Messung für die Versuchsperson m (im Beispiel: Klausurergebnis für Klausur i = 1,..., p = 5) f mj Ausprägung der Person m mit dem Faktor j (j = 1,..., q) q bezeichnet die Anzahl der Faktoren (im Beispiel ist - bis jetzt - q = 2) Beachte: Im mathematischen Modell sind f 1 = (f 11,... f 1q ), f 2 = (f 21,... f 2q ),..., f n = (f n1,... f nq ) Zufallsvariable (genauer Zufallsvektoren), deren Komponenten Varianz 1 haben. Außerdem wird angenommen, dass diese Zufallsvariablen unabhängig sind. 42 / 62
43 3.3 Das allgemeine Faktormodell x mi = f m1 a i1 + + f mq a iq (m = 1,..., n i = 1,..., p) Interpretation: + Rest = q j=1 f mj a ij + Rest a ij Bedeutung des j-ten Faktors für die Variable x i (im Beispiel die Bedeutung von Intelligenz (j = 1) bzw. Disziplin (j = 2) für das Klausurergebnis in den 5 Fächern, d.h. i = 1,..., 5). Die Größen a ij bezeichnet man auch als Faktorladungen In der Regel ist q wesentlich kleiner als p ( Dimensionsreduktion) und aus diesem Grund steht in der obigen Gleichung immer ein Rest. Wie bestimmt man die Faktoren und die Faktorladungen? 43 / 62
44 Matrixschreibweise des allgemeinen Faktormodells X = ( x11 x 1p x n1 xnp ) ; F = ( f11 f 1q f n1 fnq ) A = ( a11 a 1q a p1 apq ) ; A T = ( a11 a p a 1q apq ) Matrixschreibweise des allgemeinen Faktormodells X = F A T Beachte: X is n p Matrix F ist n q Matrix A T ist q p Matrix 44 / 62
45 Matrixschreibweise des allgemeinen Faktormodells Beachte: X is n p Matrix F ist n q Matrix A T ist q p Matrix X = F A T Die Darstellung ist nicht eindeutig: ist V eine invertierbare q q Matrix mit V V 1 = I q, so gilt X = F A T = F I q A T = F V V 1 A T = F ÃT mit F = F V ; Ã T = V 1 A T. Oft interessiert man sich für solche Matrizen für die V 1 = V T gilt (solche Matrizen, genauer die durch sie beschriebenen Abbildungen bezeichnet man als Rotation) 45 / 62
46 3.4 Bestimmung der Faktoren für das Beispiel von 2 Variablen 3 Daten ) ( x11 1 P 1 =( = x 12 2 ) ) ( x21 0 ; P 2 =( = x 22 1 ) ) ( x31 1 ; P 3 =( = x 32 3 ) X 2 P 1 P 2 X 1 P 3 46 / 62
47 Kenngrößen der Daten x 1 = x j1 = 0 x 2 = 1 3 j=1 3 3 x j2 = 0 j=1 s 2 x 1 = 1 3 j=1 3 (x j1 x 1 ) 2 = 2 3 s 2 x 2 = 1 3 j=1 (x j2 x 2 ) 2 = 14 3 sx sx 2 2 = s 2 x 1,x 2 = 1 3 j=1 (x j1 x 1 )(x j2 x 2 ) = / 62
48 Gesucht: Neues Koordinatensystem mit der folgenden Eigenschaft: in dem neuen Koordinatensystem hat die erste Koordinate der Datenpunkte möglichst große und die zweite Koordinate möglichst kleine Varianz Beispiel 1: Drehung der Achsen um 90 P 1 P 2 X 2 P 3 X 1 48 / 62
49 Beispiel 1: Drehung der Achsen um 90 (nicht optimal) Beachte: In dem neuen Koordinatensystem haben die Punkte die Koodinaten ) ( ) ) ( y11 2 y21 1 P 1 =( = ; P 2 =( = y 12 1 y 22 0 ) ) ( y31 ; P 3 =( = y ) die Varianz der ersten Koordinate wird deutlich vergrößert y 1 = j=1 y j1 = 0 ; y 2 = j=1 y j2 = 0 sy 2 1 = j=1 (y j1 y 1 ) 2 = 14 3 sy 2 2 = j=1 (y j2 y 2 ) 2 = 2 3 sy sy 2 2 = 16 3 sy 2 1,y 2 = j=1 (y j1 y 1 )(y j2 y 2 ) = / 62
50 Beispiel 2: Drehung um 45 (besser - aber nicht optimal!) X 2 P 1 X 1 P 2 P 3 50 / 62
51 Beispiel 2: Drehung der Achsen um 45 (besser - aber nicht optimal!) In dem neuen Koordinatensystem haben die 3 Punkte die Koordinaten ) P 1 =( y ( ) =( y ( ) ( ); P 2 = =( y31 ); P 3 = = 2 2 y y y 32 2 Beachte: in diesem Fall wird die Varianz der ersten Koordinate nicht weiter vergrößert y 1 = 0 ; y 20 = 0 sy 2 1 = 1 3 (y j1 y 3 1 ) 2 = 13 3 s 2 y 2 = 1 j=1 sy sy 2 2 = 16 3 sy 2 1,y 2 = 1 3 (y j1 y 3 1 )(y j2 y 2 ) = 2 j=1 ) 51 / 62
52 Beispiel 3: Drehung um (optimal!) X 1 P 1 X 2 P 2 P 3 52 / 62
53 Beispiel 3: Drehung um (optimal!) In diesem Koordinatensystem haben die 3 Punkte die Koordinaten ) ( P 1 =( y11 = y ) ) ( ; P 2 =( y21 = 0.94 y ) ; P 3 =( y31 y 32 ) = ( ) In diesem Fall ist die Varianz der ersten Koordinate maximal und die der zweiten Koordinate minimal y 10 = 0 ; y 20 = 0 ; s 2 y 1 = ; s 2 y 2 = s 2 y 1 + s 2 y 2 = 16 3 s 2 y1,y 2 = 0 Die beiden neuen Achsen nennt man Faktoren. Offensichtlich kann der größte Teil der Varianz der beiden Variablen durch nur einen Faktor erklärt werden! Durch die Rotation wurden Koordinaten eingeführt in den die Daten unkorreliert sind. 53 / 62
54 3.5 Das Prinzip der Faktor- (Hauptkomponenten) analyse im allgemeinen Fall Methode: In der Regel wird die Faktorenanalyse mit der Korrelationsmatrix durchgeführt d.h. die Daten werden zunächst z-standardisiert Mit der Hauptkomponentenanalyse bestimmt man für die p Variablen ein neues Koordinatensystem: Schritt 1: Die erste Achse (Faktor) wird so gewählt, dass die Projektionen der Daten auf diese Achse maximale Varianz haben Dadurch wird ein Teil der Gesamtvarianz durch den ersten Faktor erklärt Schritt 2: Die zweite Achse wird orthogonal (senkrecht) zu der ersten Achse so gewählt, dass von der Restvarianz ein möglichst großer Anteil erklärt wird (man beachte, dass im Beispiel 3.4 p = 2 ist und dadurch die zweite Achse festgelegt ist) Schritt 3, 4..., q: Das Verfahren wird in dieser Weise fortgesetzt. 54 / 62
55 Beachte: Die neuen Achsen erklären sukzessive maximale Varianz. Mathematisch bestimmt man dafür die Eigenwerte und Eigenvektoren der Korrelationsmatrix der Daten. Die neuen (optimalen) Achsen bezeichnet man als Faktoren. Die neuen Koordinaten z ij werden noch durch eine z-transformation standardisiert z mi z mi z i s zi, und die transformierten Werte heißen Faktorwerte. Diese Werte sind die Koordinaten der Daten bzgl. der neuen Achsen und geben Auskunft, wie stark die Merkmale in dem jeweiligen Faktor ausgeprägt sind. Die Faktorladungen a ij sind die zwischen den Faktorwerten für den jten Faktor und den Messungen der Variablen x i. D.h. a 2 ij ist der Anteil der Varianz, der Variablen x i, der durch j-ten Faktor erklärt werden kann! 55 / 62
56 Graphische Darstellung der PCA-Lösung F 2 P 2 cos( ) = a 11 = 0,507 z 32 = -1,389 F 1 f 12 = -0,901 P 3 z 31 = -1,225 f 11 = 1,090 P 1 a 12 = -3,012 In der Abbildung sind die Daten gemäß ihrer Faktorwerte eingetragen. Zum Beispiel hat der Punkt P 1 in dem neuen Koordinatensystem die Koordinaten (f 11, f 12 ) = (1.09, 0.901) 56 / 62
57 Graphische Darstellung der PCA-Lösung F 2 P 2 cos( ) = a 11 = 0,507 z 32 = -1,389 F 1 f 12 = -0,901 P 3 z 31 = -1,225 f 11 = 1,090 P 1 a 12 = -3,012 Die Faktorladungen definieren Variablenachsen (die ursprünglich senkrecht aufeinander standen). Im Beispiel hat der Punkt P 1 die Faktorladungen (a 11, a 12 ) = ( 3.012, 0.507). Der Winkel zwischen zwei Geraden liefert die Korrelation zwischen den beiden Variablen. Z.B. ist die Korrelation zwischen den beiden ursprünglichen Merkmalen cos ( ) = / 62
58 Graphische Darstellung der PCA-Lösung F 2 P 2 cos( ) = a 11 = 0,507 z 32 = -1,389 F 1 f 12 = -0,901 P 3 z 31 = -1,225 f 11 = 1,090 P 1 a 12 = -3,012 Die Projektionen der Versuchspunkte auf die Variablenachsen entsprechen den ursprünglichen z-standardisierten Ausprägungen der Variablen. Im Beispiel erhält man für das dritte Datum (z 31, z 32 ) = ( 1.225, 1.389) 58 / 62
59 Weitere Bezeichnungen Die Größe λ j = p aij 2 (j = 1,..., q) i=1 ergibt diejenige Varianz, die durch den j-ten Faktor aufgeklärt werden kann. λ j heißt Eigenwert des j-ten Faktors. Sind die Variablen wie üblich z-standardisiert, dann ist die Summe der Varianzen aller Variablen gleich p, und es gilt p λ j = p j=1 0 λ j p (j = 1,..., q) D.h. der Eigenwert λ j gibt an, wie viel von der Gesamtvarianz aller Variablen durch den j -ten Faktor erklärt werden kann. Man kann zeigen: λ 1 λ 2 λ q sind die q größten Eigenwerte der Korrelationsmatrix der Daten. 59 / 62
60 Kommunalitäten Die Größe h 2 i = q aij 2 (i = 1,..., p) j=1 gibt an, welcher Anteil der Varianz der Variablen x i durch die q Faktoren erklärt werden kann. h 2 i heißt Kommunalität und es gilt (da man wie üblich von z-standardisierten Variablen ausgeht) 0 h 2 i 1 60 / 62
61 3.6 Eine Methoden zur Wahl von q Die Frage, wie viele Faktoren man verwendet, ist nicht eindeutig beantwortbar. In der Regel sollte q im Verhältnis zu p klein sein! Kaiser-Guttmann Kriterium: Benutze nur Faktoren für die der zugehörige Eigenwert λj größer als 1 ist! Beachte: die Varianz der standardisierten Eingangsvariablen ist gleich 1! Damit betrachtet man nur Faktoren, für die die Varianz der transformierten Größe größer ist als die ursprünglichen Varianzen. Ein Screeplot betrachtet das Eigenwertdiagramm in Abhängigkeit von den Faktoren und man sucht in diesem einen Knick, der die wesentlichen Eigenwerte von den unwesentlichen unterscheidet. In anderen Worten: Man reduziert Schritt für Schritt die Dimensionalität, bis plötzlich im nächsten Schritt die Kosten der Reduktion (gemessen in Form des Verlusts an erklärter Varianz) deutlich größer sind als in den vorigen Schritten. 61 / 62
62 Beispiel für ein Eigenwertdiagramm bzw. Screeplot Screeplot 5 4 Eigenwert Faktor Auf Basis des Diagramms entscheidet man für 3 Faktoren Aus Basis des Kaiser-Guttmann Kriteriums entscheidet man für 2 Faktoren 62 / 62
Holger Dette. 30. Oktober 2015
Ruhr-Universität Bochum 30. Oktober 2015 1 / 1 Methodenlehre III Prof. Dr. NA 3/73 Telefon: 0234 32 28284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag,
Mehr17. Januar Ruhr-Universität Bochum. Methodenlehre III, WS 2010/2011. Prof. Dr. Holger Dette. 1. Matrizenrechnung. 2.
Ruhr-Universität Bochum 17. Januar 2011 1 / 232 Methodenlehre III NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30
MehrExploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse
Exploratorische Faktorenanalyse Der Begriff Faktorenanalyse umfasst eine Gruppe multivariater Analyseverfahren, mit denen zugrundeliegende gemeinsame Dimensionen von Variablenmengen (z.b. Fragebogenitems)
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrStatistische Methoden in der Wirtschaftsund Sozialgeographie
Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-
MehrExplorative Faktorenanalyse
Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung
MehrDie Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird
Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln
MehrMultiple Regressionsanalyse - Kurzabriss
Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
MehrFaktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s
Explorative Faktorenanalyse als Instrument der Dimensionsreduktion Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im Datensatz
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrGrundzüge der Faktorenanalyse
SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:
Mehr6. Faktorenanalyse (FA) von Tests
6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrName Vorname Matrikelnummer Unterschrift
Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden Klausur Statistik II (Sozialwissenschaft, Nach- und Wiederholer) am 26.10.2007 Gruppe
MehrFaktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s
Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
Mehry = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0
8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 13 a.
Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 13 a. Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1
LÖSUNG 13 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.
MehrVorlesung Mathematik für Ingenieure I (Wintersemester 2007/08)
1 Vorlesung Mathematik für Ingenieure I (Wintersemester 2007/08) Kapitel 2: Der Euklidische Raum Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 30. Oktober 2007) Vektoren in R n Definition
MehrBrückenkurs Mathematik. Mittwoch Freitag
Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
Mehr= 9 10 k = 10
2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund
Mehrbzw. eine obere Dreiecksmatrix die Gestalt (U: upper)
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere
MehrKapitel XI - Korrelationsrechnung
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Kapitel XI - Korrelationsrechnung Markus Höchstötter Uni Karlsruhe Karlsruhe, SS 2008 Kapitel XI - Korrelationsrechnung
MehrSerie 1: Eigenwerte & Eigenvektoren
D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Serie 1: Eigenwerte & Eigenvektoren 1. Beweisen oder widerlegen Sie, dass die folgenden Paare von Matrizen über dem angegebenen Körper zueinander ähnlich
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrMathematik 2 für Naturwissenschaften
Hans Walser Mathematik 2 für Naturwissenschaften Modul 202 Regressionsgerade und Korrelation Lernumgebung. Teil Hans Walser: Modul 202, Regressionsgerade und Korrelation. Lernumgebung. ii Inhalt Messwertpaare...
Mehr30. März Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette
Ruhr-Universität Bochum 30. März 2011 1 / 46 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30 10.00
MehrDidaktisches Seminar über Stochastik. Themen: ffl Korrelation von zwei Zufallsvariablen
Didaktisches Seminar über Stochastik Themen: ffl Gemeinsame Verteilung von zwei Zufallsvariablen ffl Lineare Regression ffl Korrelation von zwei Zufallsvariablen Michael Ralph Pape Mai 1998 1 1 GEMEINSAME
MehrVersuchsplanung und multivariate Statistik Sommersemester 2018
Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 27. März 2015 Aufgabe 1 Kennzeichnen Sie die folgenden Aussagen über die beiden Zufallsvektoren ([ ] [ ]) ([ ] [ ]) 2 1 0 1 25 2 x 1 N, x 3 0 1 2
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
Mehr3.3 Klassifikation quadratischer Formen auf R n
3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau
Mehr6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal
Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - soziale Kontakte (6 Items) - Markenbewusstsein (6 Items) - Werbeakzeptanz (6 Items) - materielle
MehrUntersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y
Aufgabe 1 Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. (( )) 3x x (a) Sei f : R 2 R 3 mit f = 2y + x y x y ( ) 4 (b) Sei f : R R 2 mit f(x) = x + 1 (( )) ( ) x x y (c) Sei
MehrDiagonalisierbarkeit symmetrischer Matrizen
¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrVorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)
1 Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) Kapitel 2: Vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 19. Oktober 2011) Vektoren in R n Definition 2.1
MehrElemente der Analysis II
Elemente der Analysis II Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 8. Mai 2009 1 / 29 Bemerkung In der Vorlesung Elemente der Analysis I wurden Funktionen
Mehr6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal
Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - Preisorientierung (6 Items) - Werbeakzeptanz (6 Items) - Qualitätsbewusstsein (6 Items) - Trendbewusstsein
Mehr1 Beispiele multivariater Datensätze... 3
Inhaltsverzeichnis Teil I Grundlagen 1 Beispiele multivariater Datensätze... 3 2 Elementare Behandlung der Daten... 15 2.1 Beschreibung und Darstellung univariater Datensätze... 15 2.1.1 Beschreibung und
MehrStatistik. Ronald Balestra CH St. Peter
Statistik Ronald Balestra CH - 7028 St. Peter www.ronaldbalestra.ch 17. Januar 2010 Inhaltsverzeichnis 1 Statistik 1 1.1 Beschreibende Statistik....................... 1 1.2 Charakterisierung von Häufigkeitsverteilungen...........
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrAppendix. Kapitel 2. Ökonometrie I Michael Hauser
1 / 24 Appendix Kapitel 2 Ökonometrie I Michael Hauser 2 / 24 Inhalt Geometrie der Korrelation Freiheitsgrade Der OLS Schätzer: Details OLS Schätzer für Okuns s law nachgerechnet Anforderungen an Theorien
MehrD-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie
D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5
MehrMathematik I für MB und ME
Mathematik I für MB und ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 28/29 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
MehrKlausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover
Dozent: Prof. Dr. Wolfgang Ebeling Übungsleiter: Dr. Detlef Wille Klausur zur Vorlesung Lineare Algebra B im SS an der Universität Hannover Joachim Selke 9. Februar Lineare Algebra B SS Klausur zur Vorlesung
MehrBivariate Regressionsanalyse
Universität Bielefeld 15. März 2005 Kovarianz, Korrelation und Regression Kovarianz, Korrelation und Regression Ausgangspunkt ist folgende Datenmatrix: Variablen 1 2... NI 1 x 11 x 12... x 1k 2 x 21 x
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
MehrHypothesentests mit SPSS
Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrMatrizen und Drehungen
Matrizen und Drehungen 20. Noember 2003 Diese Ausführungen sind im wesentlichen dem Skript zur Vorlesung Einführung in die Theoretische Physik I und II on PD Dr. Horst Fichtner entnommen. Dieses entstand
MehrLineare Algebra II 11. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
MehrSerie 12: Eigenwerte und Eigenvektoren
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie : Eigenwerte und Eigenvektoren Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom 7 und 9 Dezember Finden Sie für folgende
MehrExkurs: Eigenwertproblem
1 von 7 29.11.2008 16:09 Exkurs: Eigenwertproblem Bei der Faktorenanalyse tritt das Eigenwertproblem auf. Man spricht von einem Eigenwertproblem wenn das Produkt zwischen einer Matrix und einem Vektor
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
MehrFaktoren- und Hauptkomponentenanalyse
Ziel: Anwendung von Verfahren der Dimensionsreduzierung Erkennen von Strukturen in Daten an ausgewählten Anwendungsbeispielen Betreuer: Dipl.-Chem. Stefan Möller IAAC, Lehrbereich Umweltanalytik Lessingstraße
MehrZusatzmaterial zu Kapitel 4
1 ERMITTLUNG DER TRANSITIONSMATRIX MIT DER SYLVESTER-FORMEL 1 Zusatzmaterial zu Kapitel 4 1 Ermittlung der Transitionsmatrix mit der Sylvester- Formel Wir nehmen an, dass das Zustandsmodell eines linearen
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrStatistik II: Klassifikation und Segmentierung
Medien Institut : Klassifikation und Segmentierung Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Faktorenanalyse 2. Clusteranalyse 3. Key Facts 2 I 14 Ziel
MehrÜbungen zur Ingenieur-Mathematik III WS 2012/13 Blatt
Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt 9 19.12.2012 Aufgabe 35: Thema: Differenzierbarkeit a) Was bedeutet für eine Funktion f : R n R, dass f an der Stelle x 0 R n differenzierbar ist?
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrHypothesentests mit SPSS
Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen
Mehr5.4 Basis, Lineare Abhängigkeit
die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrMathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik I+II Frühlingsemester 219 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 46 8. Lineare Algebra: 5. Eigenwerte und
MehrÜbungsblatt
Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen
MehrMathematik I für MB/ME
Mathematik I für MB/ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 25/26 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
Mehr