Faktorenanalyse und Hauptkomponentenanalyse

Größe: px
Ab Seite anzeigen:

Download "Faktorenanalyse und Hauptkomponentenanalyse"

Transkript

1 Faktorenanalyse und Hauptkomponentenanalyse Man habe n Personen auf m Variablen untersucht Insbesondere habe man: n Personen Index i m Variablen Index j r Faktoren Index l Die Faktoren sind latente Variablen, für die r m gelte Man schreibe die Messvariablen als Vektoren, die Vektorkomponenten sind einfach die Messungen der n Personen auf den m Variablen Wir haben also m Messvariablen oder standardisiert x x j x m z z j z m Wir können nun die Messvektoren als Spalten der Matrix Z, oder auch als Zeilen der Matrix Z t schreiben: Z = = z z 2 z j z m z 2 z 22 z 2j z 2m Zt = = z z 2 z i z n z 2 z 22 z 2i z 2n z n z n2 z nj z nm z m z m2 z mi z mn () Man nehme an, es existiere eine Basis F für Z, die dazu eine Orthogonalbasis sein soll F F 2 F l F r F F 2 F i F n F = = F 2 F 22 F 2l F 2r Ft = = F 2 F 22 F 2i F 2n F n F n2 F nl F nr F r F r2 F ri F rn (2) Mit dieser Basis können wir alle Messvektoren (alle Zeilen von Z t ) als eine Linearkombination der Zeilen von F t schreiben: z j = b j F + b j2 F b jl F l + + b jr F r (3) Hierin ist b jl die Koordinatenzahl von Variable (Vektor) z j auf Faktor (Vektor) F l

2 Demzufolge ist b j = (b j, b j2,, b jr ) ein Koordinatenvektor, der die Koordinaten der Variable z j auf allen r Faktoren hält Gleichung (3) entsteht offensichtlich dadurch, dass man den Koordinatenvektor b j mit den Spalten der Matrix F t multipliziert, dadurch erhält man also eine Messvariable z j als einen Zeilenvektor: F F 2 F i F n F 2 F 22 F 2i F 2n (b j, b j2,, b jr ) = (z j, z j2,, z jn ) (4) F r F r2 F ri F rn ( r) (r n) = ( n) Um alle Messvektoren z j (Zeilen von Z t ) als Linearkombination der Faktoren F l darzustellen, erhalten wir die Matrixgleichung b b 2 b l b r b 2 b 22 b 2l b 2r b j b j2 b jl b jr b m b m2 b ml b mr F F 2 F i F n F 2 F 22 F 2i F 2n = F l F l2 F li F ln F r F r2 F ri F rn z z 2 z i z n z 2 z 22 z 2i z 2n z j z j2 z ji z jn z m z m2 z mi z mn Also B F t = Z t (5) (m r) (r n) = (m n) 2

3 Unser Problem ist damit, dass wir die Matrix B zerlegen wollen in ein Matrixprodukt von zwei zunächst unbekannten Matrizen Man erinnere sich, dass eine Eigenwertzerlegung einer quadratischen symmetrischen Matrix eine Matrix von Eigenvektoren liefert, die paarweise orthogonal sind und damit eine Orthogonalbasis der zerlegten Matrix Die Messwertmatrix Z ist nicht quadratisch und symmetrisch, aber die Korrelationsmatrix R = n Zt Z (6) ist es, und eine Basis von Z t Z ist stets auch eine Basis von Z Für R kann man nun schreiben R = n BFt (BF t ) t = n BFt FB t = B n Ft FB t (7) Nun ist aber C = n Ft F auch eine Korrelationsmatrix, nämlich die Matrix der Korrelationen der Faktoren untereinander Sind die Faktoren aber nach der Forderung orthogonal, so gilt für die Faktorkorrelationsmatix C = I Damit vereinfacht sich (7) zu R = BB t (8) was auch als Thurstones Fundamentaltheorem der Faktorenanalyse bekannt ist Damit gilt für jedes Element r ik r ik = b i b k + b i2 b k2 + + b ir b kr = l b il b kl = b i, b k (9) Satz Die Korrelation zweier Variablen z i und z k lässt sich darstellen als das innere Produkt b i, b k der Koordinatenvektoren der beiden Variablen auf allen r Faktoren Die Matrix B ist die Matrix der Eigenvektoren von R, was über eine Eigenwertzerlegung gezeigt werden kann Man erhält die Eigenvektoren (Spaltenvektoren von B) also aus der Bedingung R β l = λ l β l R β l λ l β l = 0 (R λ l I) β l = 0 (0) 3

4 Damit (0) eine nichttriviale Lösung für β l besitzt, darf (R λ l I) keine Inverse besitzen, dh aber dass det (R λ l I) = 0 () sein muss Ausführlich geschrieben lautet die Eigenwertbedingung: λ l r 2 r m r 2 λ l r 23 r 24 r m r m2 λ l = 0 (2) Da die Matrix (R λ l I) m quadratisch ist, führt seine Determinantenentwicklung auf ein Polynom m ter Ordnung Jeder der m Nullstellen ist ein Eigenwert von R Man setzt nun sukzessive jeden Eigenwert λ l in (2) und bestimmt den entsprechenden Lösungsvektor β l In der Regel erhält man auch m verschiedene Eigenwerte, dh die Anzahl der Faktoren ist gleich der Anzahl der Variablen (r = m) Jeden Eigenvektor β l normiert man auf die Länge seines zugehörigen Eigenwertes, indem man die Vektorkomponenten gemäss b jl = λ l β jl β l (3) transformiert Die spaltenweise Anordnung der normierten Eigenvektoren b l ergibt die gesuchte Koordinatenmatrix B, die auch Matrix der Faktorladungen oder einfach Ladungsmatrix heisst 4

5 Die Lösung hat folgende Eigenschaften und Implikationen: Die Summe der Ladungsquadrate pro Faktor ergibt den Eigenwert des Faktors: λ l = m j= b 2 jl 2 Die Ladungsvektoren sind wechselseitig orthogonal: b p, b q = m b jp b jq = 0 j= 3 Aus der Diagonalisierung Λ = B RB folgt: Die Summe der Diagonalelemente der Korrelationsmatrix ist die Summe der Eigenwerte Da die Diagonalelemente von R aber alle gleich sind und R m quadratisch ist, folgt m m = 4 Da die Varianz jeder z- standardisierten Variable ja gleich ist (s 2 = s 2 2 = = s 2 m = ), folgt m m s 2 j = λ l = m j= l= l= dh die totale Varianz ist die Summe der Eigenwerte und gleichzeitig die Summe der Variablen 5 Daher definiert V l = λ l m l= λ l λ l = λ l m den Anteilswert der Varianzaufklärung des l ten Faktors in Einheiten der Einheitsvarianz Man setzt V l = ( Kaiser-Kriterium ): Die Varianzaufklärung eines Faktors sollte grösser als die Varianz einer Variable sein Es folgt ein weitere wichtige Eigenschaft der Hauptkomponentenlösung: Satz 2 Die Folge der Eigenvektoren, geordnet nach absteigender Grösse der zugeordneten Eigenwerte, gibt die Folge der Faktoren mit sukzessive maximaler Varianzaufklärung an 5

6 Reproduzierte Korrelationsmatrix Eine Hauptkomponentenanalyse mit r = mreproduziert die Korrelationsmatrix vollständig: Es gilt wegen auch R = n Zt Z = BB t r ik = r jj = m b il b kl l= m b 2 jl = l= Man kann nun auch r < m Faktoren benutzen, um die Korrelationsmatrix zu reproduzieren, zb indem man nur die Faktoren verwendet, die mehr Varianz als eine Variable aufklären Dann hätte man R = B r B t r als reproduzierte Korrelationsmatrix Auf der Diagonalen dieser Matrix treten dann die Werte r h 2 j = r jj = b 2 jl (4) auf, die sog Kommunalitäten der Variablen Satz 3 Die Kommunalität h 2 j gibt die anteilige Varianz einer Variable z j an, die durch eine unvollständige Faktorlösung erklärt wird Die Matrix l= R e = R R enthält die Residuen der Reproduktion Diese sind mit E {r e } = 0 und σ r = / n 2 t verteilt, eine Abweichung des Mittelwertes vom Erwartungswert 0 ist also statistisch prüfbar 6

7 Bedeutung der Faktorladungen Die Faktorladungen, dh die Koordinatenzahlen der Variablen auf den Faktoren haben eine konkrete anschauliche Bedeutung Es ist Z t m n = B Dies kann man mit /nf nachmultiplizieren: m r F t r n n Zt F = B n Ft F n Zt F = B m n n r m r (m n) (n r) = (m r) da n Ft F = I ist Also ist B ebenfalls eine Art Korrelationsmatrix, zwar unsymmetrisch, enthält aber die Korrelationen von Variablen und Faktoren Satz 4 Eine Faktorladung b jl repräsentiert die Korrelation der Variable z j mit Faktor F l Bestimmung der Faktorwerte für r = m Wir hatten bislang nur die Ladungsmatrix B bestimmt Hat man dies für r = m (Hauptkomponentenanalyse), ist die Bestimmung der Faktorwerte, dh der Werte der Personen auf den Faktoren, einfach Es gilt ja Z t = BF t und B ist m quadratisch und besitzt eine Inverse B Wenn man mit dieser Inversen vormultipliziert, folgt B Z t = F t (5) dh die FaktorScores können durch einfaches Vormultiplizieren der Ladungsmatrix mit der Variablenmatrix gefunden werden Generell wird man aber an einer reduzierten Anzahl von Faktoren interessiert sein, die möglichst viel Varianz der Variablen aufklärt, also eine Lösung mit r < m Das dahinterstehende Problem ist das Problem der Bestimmung der validen Anzahl der Faktoren, kurz Faktorenproblem 7

8 Das Faktorenproblem der Faktorenanalyse Das Faktorenproblem der Faktoranalyse ist das Problem, wie viele gemeinsame Faktoren zu einem befriedigenden und stabilen Modell der Variablen extrahiert werden müssen Hätte man eine sichere a priori Schätzung für die Kommunalitäten, würde sich das Faktorenproblem nicht ergeben Diese hat man jedoch nicht (so) Daher achtet man noch auf andere Indikatoren für die Anzahl der gemeinsamen Faktoren, unabhängig von den Kommunalitäten Scree Test Man erzeugt normalverteilte Zufallsvariablen mit derselben Anzahl von Messungen, bildet deren Korrelationsmatrix ( auf der Diagonalen!) und faktorisiert diese Man erhält also eine Faktorisierung von Zufallskorrelationen, diese hat einen linearen Eigenwerteverlauf, wenn man die Eigenwerte der Grösse nach ordnet und nach ihrer Reihenfolge abträgt In dieses Eigenwertediagramm trägt man ebenso die Eigenwerte der Faktorisierung der Messvariablen ein Die Steigung der Gerade der Eigenwertefolge der Zufallsvariablen liefert ein Kriterium, wie viele Faktoren verwendet werden können Man trägt eine Gerade derselben Steigung in den Tail der Eigenwertefolge der Messvariablen ab Die Eigenwerte, die vom ersten Eigenwert kommend über dieser Geraden liegen, gehören zu Eigenvektoren die für die Erklärung von Korrelationen nötig sind, die nicht mit einer Zufallsgeneration vereinbar sind Zugrundegelegt ist eine Hauptkomponentenanalyse, die zunächst durchgeführt wird Wenn mit dem Scree Test über die Anzahl der Faktoren entschieden wird, wird nachfolgend erst die Faktorenanalyse mit der festgelegten Anzahl von Faktoren und iterativen Kommunalitätenschaätzungen gerechnet 2 Horn Kriterium Nach Horn sollte der Schnittpunkt der Folge der Eigenwerte der Zufallsskorrelationen mit der Eigenwertfolge der Messvariablen als Kriterium verwendet werden 3 Beurteilung der Residualkorrelationen (Differenzen von Korrelationsmatrix und reproduzierter Korrelationsmatrix) Beruhen die Residualkorrelationen r jk auf reinen Zufallseffekten, so sollten die r jk eine t - Verteilung mit dem Erwartungswert Null und der Streuung σ r = / n 2 bilden Daher liefert ein statistischer Test der Nullhypothese H 0 : E { r ik } = 0 Information zu Verletzungen der Unabhängigkeitsannhme der Einzelrestfaktoren Eine positive Abweichung der Streuung σ r vom Erwartungswert / n 2 besagt, daß einige Korrelationen bestehen, die über die bisher extrahierten gemeinsamen Faktoren nicht erklärt werden können (Residualkorrelationen als Zufallskorrelationen müssen ja allesamt auf Restfaktoren, bzw Zufallsfehlern, beruhen) Die Extraktion weiterer Faktoren ist dann gerechtfertigt Praktisch wird man immer eine Kombination von Kriterien verwenden und sich nicht auf ein einzelnes verlassen Da nach dem Scree Test mehr gemeinsame Faktoren extrahiert werden als über das Horn Kriterium, kann man zb schauen, ob durch Anwendung des Horn 8

9 Lambda Eigenwertdiagramm Horn Kriterium Random DataSet Nr Eigenwert Abbildung : Eigenwerte einer beobachteten Korrelationsmatrix (blaue Quadrate) und einer Korrelationxmatrix von Zufallsvariablen (grüne Kreise) Die eingezeichnete Gerade liefert das Horn-Kriterium für Cattel s Scree Test Kriteriums die Testung der Residualkorrelationen eine zu grosse Streuung anzeigt Dann kann man weitere Faktoren hinzunehmen und sich somit der Lösung nach dem Scree Test annähern Die Bestimmung der Faktorwerte für r < m Die Faktorenanalyse ist erst vollständig, wenn auch die Werte der Matrix F bestimmt sind, dh jedem Meßindividuum muß ein Ausprägungsgrad in jedem der r - gemeinsamen Faktoren zugewiesen sein Im Falle der Hauptkomponentenanalyse ist die Bestimmung der Faktorwerte auf direktem Wege möglich (s oben) da in diesem Fall B eine nicht singuläre m - quadratische Matrix ist (r = m), Anzahl der Variablen ist gleich der Anzahl der Faktoren), die eine Inverse besitzt Im Falle r < m (Faktorenanlyse) ist B jedoch nicht quadratisch, sondern hat die Dimension m r und ist ebenfalls nicht quadratisch, besitzt daher keine Inverse Die direkte Bestimmung der Faktorwerte ist damit im Falle der Faktorenanalyse nicht möglich Man kann zu den Faktorwerten aber über Schätzmethoden kommen, für die es mehrere Möglichkeiten gibt (ausführlich bei Harman (973), S 345ff) Wir behandeln nur den einfachsten Weg für die Faktorenanalyse mit unabhängigen gemeinsamen Faktoren Der einfachste Weg ist der regressionsanalytische Ansatz F li = β l z i + β l2 z 2i + + β lm z mi, 9

10 den man für jeden Faktor F l aufstellen kann Wir schreiben daher als Matrixgleichung F t r n = P t r m Z t m n (6) Hierin ist P die Matrix der β Regressionskoeffizienten Korreliert man die Faktorwerte mit den Variablen z j, erhält man für jeden Faktor F l ein Gleichungssystem der Form: r Fl z = β l +β l2 r β lm r m r Fl z 2 = β l r 2 +β l2 + + β lm r 2m r Fl z m = β l r m +β l2 r m2 + + β lm (7) In (7) beinhaltet der Spaltenvektor links vom Gleichheitszeichen die Korrelationen des l -ten Faktors mit den m - Variablen, und es gilt bei unabhängigen gemeinsamen Faktoren: r Fl z b l r Fl z 2 = b 2l r Fl z m Jedem der r - Spaltenvektoren von B ist ein Regressionsgleichungssystem (7) zugeordnet, und da gilt b ml b l = R β l R b l = β l gilt als Erweiterung auf die gesamte Matrix der Regressionskoeffizienten P m r = R m m B m r (8) was die gesuchte Lösung ist, da die Korrelationsmatrix R symmetrisch und invertierbar ist Die Lösung erhält man auch direkt aus (6) Nach Transponieren von (6) hat man Vormultiplizieren mit n Zt gibt F n r = Z n m P m r (9) n Zt F = n Zt ZP = RP (20) 0

11 Der linke Teil von (20) ist aber B (s Abschnitt Bedeutung der Faktorladungen ) Also gilt B = RP, (2) was nach Vormultiplizieren mit der Inversen der Korrelationsmatrix zu R B = P (22) wird

12 Die Grössen um die Ladungsmatrix im Überblick r(z j,w l ) h 2 j = r l= b 2 jl = für r= m Faktoren Variablen m λ l = b 2 2 jl = b l j= bb 2 b l b bb 2 22 b2 l b2 bb 2 b b bb m 2 b b j jl jm m m m ml mm Abbildung 2: Die Grössen, die in der Ladungsmatrix eine Rolle spielen Ein Zeilenvektor b j von B repräsentiert die Koordinaten der Variable z j auf allen Faktoren 2 Ein Spaltenvektor b l von B repräsentiert die Koordinaten aller Variablen auf Faktor F l 2

13 Rotation der Faktoren Y Y' x' = xcosφ+ ysinφ y' = xsinφ+ ycosφ x' cos sin y' = x sin cos y X' X Neuer Koordinatenvektor Alter Koordinatenvektor Drehmatrix Abbildung 3: Rotation des Koordinatensystems entspricht einer Multiplikation des ursprünglichen Koordinatenvektors mit einer Drehmatrix Für die Länge des neuen Koordinatenvektors gilt v = x 2 + y 2 = (x cos ϕ + y sin ϕ) 2 + ( x sin ϕ + y cos ϕ) 2 = (x 2 + y 2 ) (cos 2 ϕ + sin 2 ϕ) = (x 2 + y 2 ) da cos 2 ϕ + sin 2 ϕ = Es gilt für die Rotation der Faktorlösung: Da die Summen der Koordinatenquadrate und damit die Vektorlängen gleich bleiben, bleiben die Kommunalitäten der Variablen bei der Rotation erhalten 2 Es ändert sich die Verteilung der Variablenkoordinaten auf die neuen Achsen Die Summe der Koordinatenquadrate pro Faktorachse ändert sich, und damit die Varianzaufklärung jedes Faktors 3

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

Hilfsblätter Lineare Algebra

Hilfsblätter Lineare Algebra Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine

Mehr

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015 Matrizenrechnung Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Matrizenrechnung Übersicht Grundsätzliches 1 Grundsätzliches Matrixbegriff Rechenregeln Spezielle Matrizen 2 Matrizenrechnung Determinanten

Mehr

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse Exploratorische Faktorenanalyse Der Begriff Faktorenanalyse umfasst eine Gruppe multivariater Analyseverfahren, mit denen zugrundeliegende gemeinsame Dimensionen von Variablenmengen (z.b. Fragebogenitems)

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Grundzüge der Faktorenanalyse

Grundzüge der Faktorenanalyse SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Exkurs: Eigenwertproblem

Exkurs: Eigenwertproblem 1 von 7 29.11.2008 16:09 Exkurs: Eigenwertproblem Bei der Faktorenanalyse tritt das Eigenwertproblem auf. Man spricht von einem Eigenwertproblem wenn das Produkt zwischen einer Matrix und einem Vektor

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Explorative Faktorenanalyse

Explorative Faktorenanalyse Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung

Mehr

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln

Mehr

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015 Matrizenrechnung Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Matrizenrechnung Übersicht Grundsätzliches 1 Grundsätzliches Matrixbegriff Rechenregeln Spezielle Matrizen 2 Matrizenrechnung Determinanten

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung

Mehr

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i

Mehr

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN 13. ABBILDUNGEN in EUKLIDISCHEN VEKTORRÄUMEN 1 Orthogonale Abbildungen im R 2 und R 3. Eine orthogonale Abbildung ist eine lineare Abbildung, die Längen und Orthogonalität erhält. Die zugehörige Matrix

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

Matrizen: Grundbegriffe. 1-E Ma 1 Lubov Vassilevskaya

Matrizen: Grundbegriffe. 1-E Ma 1 Lubov Vassilevskaya Matrizen: Grundbegriffe -E Ma Lubov Vassilevskaya Lineares Gleichungssystem Abb. : Der Schnittpunkt P der beiden Geraden ist die graphische Lösung des linearen Gleichungssystem g : y = x, g 2 : y = 3 x,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg.

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg. Übungsaufgaben 13. Übung: Woche vom 23. 1.-27. 1. 2017 (Lin.Alg. II): Heft Ü 3: 1.1.3; 1.1.7 (a,b); 1.1.8; 1.1.11; 3.4.3 (b); 1.3.3 (c); 1.2.3 (b,d); Hinweis 1: 3. Test (Integration, analyt. Geom.) ist

Mehr

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014 Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................

Mehr

Kurzübersicht Lineare Algebra. Vorlesung Multivariate Analysemethoden WS 2006/2007 (G. Meinhardt)

Kurzübersicht Lineare Algebra. Vorlesung Multivariate Analysemethoden WS 2006/2007 (G. Meinhardt) Kurzübersicht Lineare Algebra Vorlesung Multivariate Analysemethoden WS 2006/2007 (G. Meinhardt 21.11.2006 1 Lineare Gleichungen System linearer Gleichungen, allgemeine Form: a 11 x 1 + a 12 x 2 + + a

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.

Mehr

Matrizen und Determinanten, Aufgaben

Matrizen und Determinanten, Aufgaben Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen

Mehr

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1 Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Grundlagen der linearen Algebra

Grundlagen der linearen Algebra WINTERSEMESTER 006/07 SEITE Grundlagen der linearen Algebra. Grundbegriffe. Vektoren Aus der Vektorrechung ist bekannt, daß ein Vektor im zweidimensionalen Raum R bei gegebenem Koordinatensystem durch

Mehr

Aufgaben zu Kapitel 16

Aufgaben zu Kapitel 16 Aufgaben zu Kapitel 16 1 Aufgaben zu Kapitel 16 Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Rückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n

Rückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n Rückwärts-Einsetzen Bei einem linearen Gleichungssystem in oberer Dreiecksform, r 1,1 r 1,n x 1 b 1..... =., } 0 {{ r n,n } x n b n R mit det R = r 1,1 r n,n 0 können die Unbekannten x n,..., x 1 nacheinander

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden 8.04.008 Günter Meinhardt Johannes Gutenberg Universität Mainz (DFA) Discriminant Function Analysis (DFA) Klassifikation Ziele Maximale Trennung von Gruppen auf einem gegebenem

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.3 Ergänzungen

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.3 Ergänzungen Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 83 Ergänzungen wwwmathethzch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof Dr Erich Walter Farkas http://wwwmathethzch/ farkas

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

FH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB 5./7. November 2008 Prof. Dr. H.-R. Metz. Matrizen 1. a m1 a m2 a m3 a mn

FH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB 5./7. November 2008 Prof. Dr. H.-R. Metz. Matrizen 1. a m1 a m2 a m3 a mn FH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB./7. November 2008 Prof. Dr. H.-R. Metz (Matrix) Matrizen 1 Ein System von Zahlen a ik, die rechteckig in m Zeilen und n Spalten angeordnet

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

2.3.4 Drehungen in drei Dimensionen

2.3.4 Drehungen in drei Dimensionen 2.3.4 Drehungen in drei Dimensionen Wir verallgemeinern die bisherigen Betrachtungen nun auf den dreidimensionalen Fall. Für Drehungen des Koordinatensystems um die Koordinatenachsen ergibt sich 1 x 1

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ. Eigenwert, Eigenvektor In der Regel hat bei einer linearen Abbildung das Bild eines Vektors eine andere Richtung als das Original r. Bei der Untersuchung der geometrischen Eigenschaften von linearen Abbildungen

Mehr

Matrizen. Stefan Keppeler. 28. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Matrizen. Stefan Keppeler. 28. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematik I für Biologen, Geowissenschaftler und Geoökologen Matrizen 28. November 2007 Summe & Produkt Beispiel: Einwohnerzahlen Beispiel Addition Multiplikation Inverse Addition & Multiplikation Anwendung

Mehr

Konfirmatorische Faktorenanalyse

Konfirmatorische Faktorenanalyse Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

9. Übungsblatt zur Mathematik I für Maschinenbau

9. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr

6. Faktorenanalyse (FA) von Tests

6. Faktorenanalyse (FA) von Tests 6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...

Mehr

Für das Allgemeine lineare Gleichungssystem mit n linearen Gleichungen und n Unbekannten

Für das Allgemeine lineare Gleichungssystem mit n linearen Gleichungen und n Unbekannten Albert Ludwigs Universität Freiburg Abteilung Empirische Forschung und Ökonometrie Mathematik für Wirtschaftswissenschaftler Dr. Sevtap Kestel Winter 008 6. Januar.009 Kapitel 6 Leontieff Modell, Lineare

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden Günter Meinhardt Johannes Gutenberg Universität Mainz (DFA) Discriminant Function Analysis (DFA) Klassifikation Ziele Maximale Trennung von Gruppen auf einem gegebenem Set

Mehr

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen Gliederung I. Motivation II. Lesen mathematischer Symbole III. Wissenschaftliche Argumentation IV. Matrizenrechnung i. Rechenoperationen mit Matrizen ii. iii. iv. Inverse einer Matrize Determinante Definitheit

Mehr

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya Lineare Transformationen und Determinanten 10-E Ma 1 Lubov Vassilevskaya Lineare Transformation cc Definition: V und W sind zwei Vektorräume. Eine Funktion T nennt man eine lineare Transformation von V

Mehr

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79 Matrixpotenzen n Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden. a) terative Berechnung = 2 = 2 2 2 5 = 7 = 2 2 2 2 = 5 4 4 5 = 5 4 4 5 5 = 29 25 = 5 4 4 5 2 3 = 4 2 3

Mehr

+ x 2 y 2 = f( x 1 ) + f( x 2 ), z 1 + z 2. z 1. a jj + n bjj = SpurA + SpurB ; j=1

+ x 2 y 2 = f( x 1 ) + f( x 2 ), z 1 + z 2. z 1. a jj + n bjj = SpurA + SpurB ; j=1 Höhere Mathematik für technische Studiengänge Vorbereitungsaufgaben für die Übungen Lineare Abbildungen, Eigenwerte Lösungen Lösungshinweise: a nicht linear, denn zb fα α, αy +, α + αz T α, αy +, α + z

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit

Mehr

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME In diesem Abschnitt wiederholen wir zunächst grundlegende Definitionen und Eigenschaften im Bereich der Matrizenrechnung, die wahrscheinlich bereits in Ansätzen

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr