Lösungsskizzen zu Blatt 1 S. 1 WS07/08

Größe: px
Ab Seite anzeigen:

Download "Lösungsskizzen zu Blatt 1 S. 1 WS07/08"

Transkript

1 Lösungsskizzen zu Blatt 1 S 1 WS07/08 A1: Lösung: 1/2, 2, 0 A2: Beispielsweise führt z1:3 z2+3z1 z3+2z1 z4 4z1 z2:3 z2 1 z3+2z2 z4 3z2 z4+2z3 z1+z2 z2 3z3 z1 4z3 zu Offenbar ist das zweite Gleichungsystem nicht lösbar Beliebige Lösungen der ersten: x = 6 2y + u v, z = 1 2u 2v, w = 2 Hier y, u, v beliebig wählen A3: Beispiel: z1:2 kann ersetzt werden durch z2+z1, z1 z2, z2+z1, z1 1 A4: Staffelform zeigt bei 3 Gleichungen, 4 Unbekannten: Falls das System überhaupt lösbar ist, so gibt beliebig viele Lösungen Entsprechend 3 Gleichungen, 3 Unbekannte: keine, genau eine oder beliebig viele Lösungen; 3 Gleichungen, 2 Unbekannte: keine, genau eine oder beliebig viele Lösungen Nur im ersten Fall (mehr Unbekannte als Gleichungen) hat man also eine Einschränkung: es gibt nie genau eine Lösung A5: Zunächst sind die Kovarianzen der Variablen in beiden Teilstichproben gleich 2 Mit Benutzung der Formel Kov X,Y = M XY M X M Y erhält man für M XY bei den Männern 102 und bei den Frauen 93 Den Mittelwert von X in der Gesamtstichprobe erhält man als das gewichtete Mittel 12 von 10 und 13 Genauso ergibt sich für den Mittelwert von Y der Wert 8 Der Mittelwert von XY ist entsprechend 96 Damit erhält man den Wert 0 für die Kovarianz von X und Y Auch die Korrelation in der Gesamtstichprobe ist daher gleich 0 Einen strukturell ähnlichen Sachverhalt hat man in der klassischen Testtheorie, allerdings umgekehrt: Trotz lokaler stochastischer Unabhängigkeit hat man in der Gesamtpopulation Korrelationen, die von 0 verschieden sind A6: Bis auf den Faktor 1/N ist die Kovarianzformel für X = Y gerade die Quadratsummenzerlegung aus der Varianzanalyse Die Formeln für die Mittelwerte sollten aus dem Grundstudium bekannt sein Bei der Bestimmung der Gesamtkovarianz wird mehrfach die Beziehung Kov X,Y = M XY M X M Y

2 Lösungsskizzen zu Blatt 1 S 2 WS07/08 benutzt: Kov X,Y = M XY M X M Y = h j M (j) XY M XM Y = h j Kov (j) X,Y + h j M (j) X M (j) Y M X M Y Der zweite Summand der zu zeigenden Formel stimmt aber mit der Summe der letzten beiden Summanden in der bisherigen Rechnung überein: ( ) ( ) hj M (j) X M X M (j) Y M Y = hj M (j) X M (j) Y h j M (j) X M Y h j M X M (j) Y + h j M X M Y = h j M (j) X M (j) Y M X M Y M X M Y + M X M Y = h j M (j) X M (j) Y M X M Y A7: Sind die Mittelwerte von X und Y in den Teilpopulationen gleich, so fällt in der Formel der Mittelwertteil weg Man errechnet dann die Varianzen von X und Y (Formel für Spezialfall X = Y ) zu 38/3 und 73/3, während die Kovarianz gleich 2 ist Für die Korrelation ergibt sich damit der Wert 2/ 38 73/9 = 114, was sich wieder von 1/3 unterscheidet Sind hingegen zusätzlich die Streuungen der Variablen in den Teilpopulationen gleich, so stimmen (gemeinsame) Varianzen und Kovarianzen in den Teilpopulationen mit den entsprechenden Varianzen und der Kovarianz in der Gesamtpopulation überein, weshalb sich auch die gleiche Korrelation in der Gesamtpopulation wie in den Teilpopulationen ergeben muss A8: Nachzuholen sind zunächst die Varianzen von X und Y in der Gesamtstichprobe, wofür die Formel die Werte 44/3 und 79/3 liefert Die Summe der Werte von XZ stimmt bei den Männern mit der Summe der Werte von X überein, die 100 ist, während bei den Frauen die Summe der Werte von XZ gleich 0 ist Die Summe aller Werte von XZ ist also 100 Daraus ergibt sich M XZ = 100/30 = 10/3 Der Mittelwert von Z ist natürlich 1/3, so dass man Kov X,Z = 10/3 12/3 = 2/3 erhält Entsprechend ergibt sich Kov Y,Z = 10/3 8/3 = 2/3 Die Varianz von Z, das ja eine binäre Variable ist, erhält man als (1/3)(1 1/3) = 2/9, so dass die gesuchte Kovarianzmatrix gleich 44/3 0 2/3 0 79/3 2/3 2/3 2/3 2/9

3 Lösungsskizzen zu Blatt 1 S 3 WS07/08 ist Hieraus errechnet man r XY = 0, r XZ = 3/22 und r Y Z = 6/79 Die Partialkorrelation ist daher gleich 0 + 3/22 6/79 1 3/22 1 6/79 = = 18/(19 73) = 114, was mit übrigens (und dies ist kein Zufall) mit der Gesamtkorrelation von X und Y übereinstimmt, die sich ergeben hätte, wenn die Mittelwerte von X und Y in den Teilstichproben gleich gewesen wären Auch die Partialkorrelation liefert also nicht die übereinstimmende Korrelation in den Teilstichproben (was jedoch der Fall gewesen wäre, wenn beispielsweise zusätzlich die Varianzen der Variablen bei Männern und Frauen übereingestimmt hätten) Es folgen noch die Formeln für den allgemeinen Fall Man kann die Formeln für den Fall der Teilstichproben verwenden und hier Y durch Z ersetzen Dann gilt speziell M (j) Z = z j und Kov (j) X,Z = 0 für alle j, da ja Z in den Teilstichproben konstant gleich z j ist Setzt man der Kürze halber nun M j für M (j) X, entsprechend S2 j für die Varianz von X in der j-ten Teilstichprobe, so folgt M X = h j M j, M Z = h j z j, sowie und Kov X,Z = h j (M j M X ) (z j M Z ) S 2 Z = h j (z j M Z ) 2, wenn man wieder speziell X = Z setzt Für die Varianz von X hat man (alte Formel mit neuen Benennungen) S 2 X = h j S 2 j + h j (M j M X ) 2

4 Lösungsskizzen zu Blatt 2 S 1 WS07/08 A1: Summe: (3, 1), Linearkombination: ( ) = ( ) 5 0 A2: Skalarprodukt: 8, uadrierte Längen: 10 und 8, Kosinus des Winkels also 894, Winkel 2657 Skizze und Nachmessen sollten kein Problem sein A3: ( ) 1 2 3, ( ) 4 2 1, ( 2 2 ) A4: BA = ( ) 6 12, 3 6 während AB = 0 ist Natürlich ist (BA) = A B A5: Möglich sind AB, CA, BC, CB, diese sind der Reihe nach ( ) 4 2 0, , 2 18 ( ) 11 4, Multiplikation mit Diagonalmatrix vervielfacht Zeilen bzw Spalten

5 Lösungsskizzen zu Blatt 3 S 1 WS07/08 A1: x y = z 19 A2: Die Gleichungssysteme lassen sich zusammenfassen in Umformung beispielsweise Ergebnis: z2-2z1 z3-3z1 z3-2z2 z1+z2 z2*-1/ /2 3/2 1/2 1/ Das dritte Gleichunssystem ist nicht lösbar, der Vektor x 3 also keine Linearkombination der a i Die ersten beiden Systeme besitzen hingegen jeweils viele Lösungen, x 1 ist beispielsweise mit den Koeffizienten 1, 3/2, 0 oder 0, 1, 1 darstellbar, x 2 beispielsweise mit 2, 1/2, 0 oder 1, 1, 1 A3: Sowohl A(BC) als auch (AB)C muss ( 22 ) A4: ergeben 1 ab = 2 ( ) = 2 0 2, b a = ( ) 1 2 = ( 2), die Spur ist in beiden Fällen 2 1 aa = 2 ( ) = 2 4 6, a a = ( ) 1 2 = (14), die Spur ist in beiden Fällen 14 Zunächst bemerkt man, dass die Frage nach x x sinnvoll ist, da ja x x eine (1 1)-Matrix ist, die man mit der darin stehenden Zahl identifiziert Ist x = (x 1,, x n ), so ist x x = x x x 2 n = x 2 i, was sicher nicht negativ werden kann

6 Lösungsskizzen zu Blatt 3 S 2 WS07/08 A5: die Spur immer AB = , BA = ( ) , AA = , A A = die Spur ist in beiden Fällen 32 ( 11 ) Da das (ji)-element von A gleich a ij ist (Indizes sind vertauscht), gilt (vgl die Formel in der Begründung von Spur(AB) = Spur(BA)): Spur(AA ) = a ij a ij = a 2 ij i j i j In Worten ist also die Spur von AA gleich der Summe der uadrierten Elemente dieser Matrix und kann daher nicht negativ werden Im zuvor gerechneten Beispiel ist tatsächlich die Spur von AA gleich der Summe der uadrierten Matrixelemente, nämlich 32 A6: Zur Herleitung betrachtet man beispielsweise erst die zweite Matrix als partitioniert, erhält ( ) (( ) ( ) ) A (C ) A A D = C D B B B und rechnet dann die beiden Bestandteile des Ergebnisses weiter aus Im Beispiel ist dann ( ) A =, B = ( ), und es ergibt sich ( ) AC =, AD = C = 3 4, D = 0 3, ( ) 25 26,, BC = ( 20 4 ), BD = ( 40 ),

7 Lösungsskizzen zu Blatt 3 S 3 WS07/08 also tatsächlich die Bestandteile des Produkts der nicht partitionierten Matrizen A7: Sind hier die Bestandteile der ersten Matrix A und B und die der zweiten C und D, so gilt A = 3 1, B = 5 4, sowie C = ( 2 0 ) , D = ( 3 4 ) , AC = , BD = , was tatsächlich addiert das schon bekannte Ergebnis liefert

8 Lösungsskizzen zu Blatt 4 S 1 WS07/08 A1: Man muss nur die Darstellung mit der Zentriermatrix entsprechend klammern und danach wieder als Summe schreiben: Die analoge Formel ist 1/n x Zy = 1/n x (Zy) = 1/n x ẏ Kov X,Y = 1 n n (x i x)y i i=1 A2: Die Datenmatrix ist Der Mittelwertvektor ist (3, 5), die Kovarianzmatrix ( ) Zentrierte Datenmatrix und SSCP-Matrix sind 2 2 ( ) und Die Zentriermatrix ist hier 3/4 1/4 1/4 1/4 1/4 3/4 1/4 1/4 1/4 1/4 3/4 1/4, 1/4 1/4 1/4 3/4 womit man die gleichen Kennwerte ausrechnen sollte Schließlich sind korrigierte Stichprobenkovarianzmatrix und Korrelationsmatrix gleich ( ) und ( 1 ) A3: Die erste Matrix ist nicht symmetrisch, bei der zweiten wäre eine Varianz negativ Bei der dritten wäre die Korrelation 15, die Varianz der Differenz wäre 1, die Matrix ist also nicht positiv semidefinit Bei der vierten Matrix

9 Lösungsskizzen zu Blatt 4 S 2 WS07/08 ist eine Lösungsmöglichkeit die, zum Nachweis, dass dies eine (empirische) Kovarianzmatrix sein kann, sich Daten auszudenken, die zu dieser Matrix führen In der Tat liefern beispielsweise die Daten genau diese Kovarianzmatrix A4: Die Regeln für Diagonalmatrizen zeigen, dass das Produkt wieder eine Diagonalmatrix ist, in deren Diagonale die Produkte der jeweiligen Diagonalelemente der Faktoren stehen Offenbar erhält man immer dieses Ergebnis, egal, in welcher Reihenfolge man die Faktoren hinschreibt A5: ((A + B) C) = C (A + B) = C (A + B) = C A + C B, oder auch: ((A + B) C) = ((A + B )C) = ((A + B )C) = (AC + B C) = = (AC) + (B C) = C A + C B = C A + C B Das Ergebnis könnte man, wenn es nützlich ist, auch noch als (AC) + C B schreiben A6: Umformuliert ist gefragt nach Lösungen des Gleichungssystems Ax = 0 mit ( ) A = Die Staffelform erreicht man unmittelbar (die rechte Seite des Gleichungssystems besteht nur aus Nullen, an denen sich nichts ändert, und kann daher weggelassen werden), sie ist nämlich ( 1 1 ) Bei den Lösungen kann also die zweite Komponente vorgegeben werden Wählt man beispielsweise hier x 2 = 1, so erhält man die Lösung x = ( 1, 1, 0) Die weiteren Lösungen sind alle Vielfache dieses Vektors Diese Lösungsvektoren sind also genau die, die auf den gegebenen beiden Vektoren senkrecht stehen Dass die Lösung auch geometrisch plausibel ist, sieht man leicht ein, indem man sich die gegebenen Vektoren und die Lösungsvektoren in einem gedachten Koordinatensystem vorstellt (wenn das schwer fällt, sind am Anfang vielleicht Hilfsmittel wie Pfeifenreiniger für eine konkrete Veranschaulichung nützlich)

10 Lösungsskizzen zu Blatt 4 S 3 WS07/08 A7: Mittelwertvektor: (3, 6, 5), SSCP-Matrix: , Kovarianzmatrix: , korrigiert: , Korrelationsmatrix Die Korrelationsmatrix kann aus allen drei Matrizen nach dem gleichen Schema berechnet werden: eine Korrelation ergibt sich, indem der entsprechende Matrixeintrag der Kovarianz- oder SSCP-Matrix durch die Wurzel aus dem Produkt der Diagonalelemente dividiert wird, die zur Zeile bzw Spalte dieses Eintrags gehören Die drei Berechnungen unterscheiden sich nur dadurch, dass die drei relevanten Zahlen in den Matrizen sich um einen konstanten Faktor unterscheiden (bei SSCP im Vergleich zur Kovarianzmatrix ist dies der Faktor n), der sich beim Rechnen wegkürzt (das Quadrat und die Wurzel im Nenner heben sich auf)

11 Lösungsskizzen zu Blatt 5 S 1 WS07/08 A1: Erster Teil klar Zur Kovarianzmatrix: ( ) U = V ( ) ( X Y daher ist die Kovarianzmatrix von (U, V ) gleich ( ) ( ) ( ) = ) ( ) was sich bei beiden Möglichkeiten der Klammerung ergeben muss A2: Hier gilt u = ( ) 5 5 x, v = 1 1 ( ) y Dies sind affine Transformationen (Verschiebungsvektoren 0) Es folgt C(u, v) = Kontrolle sollte klar sein ( ) ( ) 1 ( ) = Inhaltlich würde man wohl u 1 als Indikator für die Leistungsfähigkeit verwenden, u 2 ist der Zuwachs, während v 1 vielleicht die Gesamtintelligenz ist und v 2 dann eine sinnvolle Variable darstellt, wenn die beiden ersten Intelligenzvariablen ähnliche hypothetische Komponenten der Intelligenz erfassen, die für die geforderte Leistung wichtig sind, A3: A = ( 1 1 ) , b = (0, 20) Proband: (15, 19), ( ) 16 2 E : (24, 16), V : 2 16 ( ) 1/4 0 A4: z-transformation: Matrix:, Vektor: ( 6, 4) 0 1/4 ( ) 1 1/8 Kontrolle: Kovarianzmatrix: 1/8 1

12 Lösungsskizzen zu Blatt 5 S 2 WS07/08 Gesamttransformation: ( ) (( ) 1/ z = x + 0 1/ ( ) ( ) 1/4 1/4 1/4 6 = x + 1/4 1/4 1/4 1 ( )) ( ) 6 4 A5: Die Anzahl der Personen sei n, die der Variablen (hier meist Messzeitpunkte) p Das personenweise Zentrieren des Ergebnisvektors x einer Person wird erreicht durch Multiplikation mit der Zentriermatrix Z p (Zeilen- und Spaltenzahl ist also jetzt Anzahl der Variablen, nicht Anzahl der Personen) Der zentrierte Vektor einer Vp ergibt sich also aus dem Originaldatenvektor x als Z p x Das personenweise Zentrieren ist daher eine affine Transformation (linearer Anteil Z p, Verschiebung 0) Ist S die Kovarianzmatrix der Originaldaten, so ist die Kovarianzmatrix der personenweise zentrierten Daten folglich Z p SZ p (man beachte Z p = Z p ) Die Zeilensummen einer Matrix erhält man, indem man mit dem entsprechenden Vektor 1 aus lauter Einsen von rechts multipliziert Hier ergibt sich Z p SZ p 1 = Z p S0 = 0 (wegen Z p 1 = 0), in der Tat sind also alle Zeilensummen gleich 0 Für die Spaltensummen argumentiert man analog oder verweist auf die Symmetrie Ist X die Matrix der Originaldaten, so ist die Matrix der personenweise zentrierten Daten XZ p (man beachte wieder Z p = Z p ) Variablenweises Zentrieren einer (n p)-datenmatrix geschieht durch Multiplikation mit Z n von links, personenweises (wie gerade festgestellt) durch Multiplizieren mit Z p von rechts Die Ergebnisse von personenweisem und variablenweisem Zentrieren in den unterschiedlichen Reihenfolgen sind also Z n (XZ p ) und (Z n X)Z p Wegen des Assoziativgesetzes sind beide Ergebnisse gleich Erst personenweises, dann variablenweises, dann noch einmal personenweises Zentrieren liefert (Z n (XZ p ))Z p, was gleich Z n XZ p ist wegen Z p Z p = Z p Das erneute personenweise Zentrieren ändert also nichts mehr

13 Lösungsskizzen zu Blatt 6 S 1 WS07/08 A1: Sind A und B die beiden Matrizen, so ist zunächst zu zeigen, dass die Summe symmetrisch ist Dies gilt wegen (A + B) = A + B = A + B Ist nun ein beliebiger Vektor x gegeben, so ist x (A + B)x = x Ax + x Bx nichtnegativ, da beide Summanden nichtnegativ sind A2: Es gilt (A + A ) = A + A = A + A = A + A Entsprechend: (BB ) = B B = BB Argumentation für B B entsprechend oder man benutzt das vorherige Resultat und setzt statt B dort B ein A3: Additive Konstanten fallen bei der Bildung der Varianzen/Kovarianzen weg, an der Unkorreliertheit ändert sich nichts, wenn die Vektoren mit Konstanten multipliziert werden Daher ergibt sich V(ax+by+c) = V(ax)+V(by) = a 2 V(x) + b 2 V(y) Für die Erwartungswerte gilt natürlich E(ax + by + c) = a E(x) + b E(y) + c In dem Spezialfall der Differenz ist a = 1, b = 1 und man erhält V(x y) = V(x) + V (y) bzw E(x y) = E(x) E(y) A4: Hierzu ist wenig zu sagen A5: Nein Unbekannte: Faktorwerte, Fehler Koeffizientenmatrix setzt sich zusammen aus Lambda und Einheitsmatrix Rechte Seite: Beobachtete Variable Vertauscht man die Reihenfolge der Unbekannten, so dass zuerst die Fehler und dann die Faktorwerte kommen, so hat man bereits die Staffelform Daher können soviele Werte vorgegeben werden, wie Faktoren vorhanden sind, zb alle Faktorwerte (die Fehler ergänzen dann zum Wert der beobachtbaren Variablen) A6: Für die erste Matrix liefert das Vorgehen des Hinweises für x Ax das Polynom x x 1 x 2 + 5x 2 2 das man umschreiben kann zu (x 1 + 2x 2 ) 2 + x 2 2 Dies kann als Summe von zwei Quadraten nicht negativ werden, die Matrix ist also positiv semidefinit Bei der zweiten Matrix ergibt sich entsprechend (x 1 + 2x 2 ) 2 x 2 2, was beispielsweise für x 1 = 2, x 2 = 1 negativ wird Diese Matrix ist also nicht positiv semidefinit

14 Lösungsskizzen zu Blatt 7 S 1 WS07/08 A1: Für die erste und dritte Ladungsmatrix errechnet man für ΛΛ die Matrix , für die zweite erhält man Außerhalb der Diagonale sind die Ergebnisse gleich, die zugehörigen Korrelationsmatrizen sind damit alle gleich (Diagonale durch Einsen ersetzen) Die Kommunalitäten sind gerade die Einträge in den Diagonalen, die Fehlervarianzen ergänzen zu 1 Die Maße für die Bedeutung der Faktoren sind im ersten Modell 68 und 81, im zweiten 85 und 29, im dritten 7632 und 7268 Auf empirischem Wege kann nicht zwischen den Modellen entschieden werden A2: Die reduzierte Korrelationsmatrix ist dieselbe wie die des ersten und des dritten Forschers aus der vorigen Aufgabe Die Faktorstruktur ist Der Unterschied zum Faktormuster ist deutlich: Teilweise unterschiedliche Vorzeichen entsprechender Koeffizienten, teilweise ist einer Null, der entsprechende nicht, etc Daher Schwierigkeiten, wenn unklar ist, ob Struktur oder Muster entscheidend für die Interpretation ist Die formal wie im Modell mit unkorrelierten Faktoren berechneten Maße für die Bedeutung der Faktoren wären hier und Die Summe dieser Zahlen ist nicht die Gesamtkommunalität 149, daher fehlt eine wesentliche Voraussetzung für eine vernünftige Interpretation der Zahlen A3: Es ergibt sich: ΛΛ =

15 Lösungsskizzen zu Blatt 7 S 2 WS07/08 Korrelationsmatrix der beobachtbaren Variablen: Wieder Diagonale durch Einsen ersetzen Ansatz einer Einfaktorlösung: Λ = (λ 1, λ 2, λ 3 ) liefert λ 2 ΛΛ 1 λ 1 λ 2 λ 1 λ 3 = λ 1 λ 2 λ 2 2 λ 2 λ 3 λ 1 λ 3 λ 2 λ 3 λ 2 3 Vergleich der Elemente außerhalb der Diagonale führt zu λ 1 λ 2 = 48, λ 1 λ 3 = 4 und λ 2 λ 3 = 3 Dies sind drei nichtlineare Gleichungen mit drei Unbekannten Multipliziert man jeweils zwei der Gleichungen und dividiert durch die dritte, so erhält man λ 2 1 = (λ 1 λ 2 )(λ 1 λ 3 )/(λ 2 λ 3 ) = (48)(4)/(3) = 64, also λ 1 = ±8 Entsprechend: λ 2 2 = 36 und λ 2 3 = 25, also λ 2 = ±6, λ 3 = ±5 Der Versuch mit Λ = (8, 6, 5) gelingt: Außerhalb der Diagonalen stehen genau die gewünschten Korrelationen Eine weitere Lösung erhält man mit Λ = ( 8, 6, 5) Bei der vorigen Aufgabe ist keine Einfaktorlösung möglich, denn bei einer Einfaktorlösung müssen offenbar immer entweder alle drei Korrelationen positiv sein, oder zwei negativ und eine positiv, oder zwei gleich Null oder alle drei gleich Null A4: Rechnet man in Aufgabe 3 nicht mit konkreten Zahlen, sondern lässt die ρ ij auf der einen Seite stehen, so erhält man beispielsweise λ 2 1 = ρ 12 ρ 13 /ρ 23, entsprechend die anderen uadrierten λ i Hier zeigt sich einerseits, dass dies nur lösbar ist, wenn ρ 12 ρ 13 /ρ 23 und die entsprechenden anderen beiden Ausdrücke nicht negativ sind, woraus wieder folgt, dass von den Korrelationen nur null oder zwei negativ sein dürfen Andererseits sind die uadrierten λ i gerade die Kommunalitäten und können daher höchstens 1 sein Hieraus ergeben sich weitere Bedingungen: Aus ρ 12 ρ 13 /ρ 23 1 folgt ρ 12 ρ 13 ρ 23, entsprechend für die anderen zwei Gleichungen Betragsmäßig darf also das Produkt jeweils zweier Korrelationen höchstens so groß sein wie die dritte Korrelation Sind diese Bedingungen jedoch alle erfüllt, so kann man Wurzeln ziehen und diese gegebenenfalls noch mit geeigneten Vorzeichen versehen, um eine exakt passende Lösung zu finden Diese Bedingungen sind beispielweise dann erfüllt, wenn alle Korrelationen betragsmäßig gleich groß sind, und entweder alle oder nur eine positiv sind Aus Stetigkeitsgründen sollten die Bedingungen auch dann meist erfüllt sein, wenn die Korrelationen nur etwa betragsmäßig gleich groß sind, also doch wohl für ziemlich viele Korrelationsmatrizen Wendet man nun die Faktorenanalyse ganz naiv an und folgert aus der Existenz einer exakt passenden Lösung (noch dazu mit nur einem Faktor), dass das Einfaktormodell richtig sein muss, so wird man für viele Fälle, in

16 Lösungsskizzen zu Blatt 7 S 3 WS07/08 denen man irgendwelche drei Variablen nimmt, die kaum etwas miteinander zu tun haben, zur Folgerung kommen, dass dahinter ein Faktor steht Dies dürfte hoffentlich jedem hinreichend absurd vorkommen A5: A erhält man, indem man Λ transponiert und dann betragsmäßig große Werte durch 1 bzw 1 und kleine Werte durch 0 ersetzt ( ) Im Beispiel ist A = Der Vektor der Rohwerte sei y Dann gilt (z-transformation rückwärts): y = Dx + b, wobei D = ist, und b der (irrelevante) Vektor der Erwartungswerte der Rohwerte Man hat also: g = Ay = A(Dx+b) = ADx+Ab Wegen x = Λf +e folgt weiter g = Ay = ADx + Ab = AD(Λf + e) + Ab = ADΛf + ADe + Ab Damit folgt C(g, f) = C(ADΛf+ADe+Ab, f) = C(ADΛf, f)+c(ade, f) = ADΛC(f, f) + ADC(e, f) = ADΛI = ADΛ Wegen g = ADx + Ab folgt V(g) = ADV(x)D A, wobei sich V(x) aufgrund der Gleichungen der Faktorenanalyse berechnet Die Standardisierung der Variable g erfolgt bekanntlich durch eine affine Transformation, deren linearer Anteil Vg 1/2 hier mit T abgekürzt sei (T erhält man, indem man in V(g) die Elemente außerhalb der Diagonale auf 0 setzt und die Diagonalelemente durch die Kehrwerte ihrer Wurzeln ersetzt Was die hier irrelevante additive Konstante angeht: Ist a der Vektor der Erwartungswerte von g, so erhält man den Vektor der z-transformierten Komponenten von g als T(g a) = Tg Ta) Die Matrix der Kovarianzen der z-transformierten Komponenten von g und f ist folglich C(Tg, f) = TC(g, f) = TADΛ wegen der Standardisierung ist dies auch die Matrix der Korrelationen Im Beispiel ist ΛΛ = ,

17 Lösungsskizzen zu Blatt 7 S 4 WS07/08 daher und V(x) = V(g) = ADV(x)D A = ( 196 ) Die Diagonalmatrix mit den Streuungen der Komponenten von g ist daher und die Matrix T folglich ( ) ( ) Damit errechnet sich die Matrix der Korrelationen von g und f zu ( ) TADΛ = Die Korrelationen der rekonstruierten Faktoren mit den tatsächlichen Faktoren sind in diesem Beispiel also doch recht hoch, leider sind jedoch die Korrelationen mit den jeweils anderen Faktoren auch nicht gerade niedrig A6: Die Diagonalelemente von ẊẊ sind gerade die uadrierten Abstände der einzelnen Datenvektoren zum Zentroid; außerdem ist die Regel Spur(AB) = Spur(BA) (bei geeigneten Matrizen) zu beachten sowie die Linearität der Spur

18 Lösungsskizzen zu Blatt 8 S 1 WS07/08 A1: Die reduzierte Korrelationsmatrix erhält man hier als ΛΛ, und bei Ersetzung gewisser Spalten von Λ durch ihr ( 1)-faches ändert sich an diesem Ergebnis nichts, da bei der neuen Matrixmultiplikation jeweils immer entweder beide Faktoren eines Produkts oder keiner mit 1 multipliziert werden, was am Endresultat nichts ändert Inhaltlich kann man eine Multiplikation einer Spalte mit 1 interpretieren als Kompensation der Umskalierung des entsprechenden Faktors mit 1, was offensichtlich harmlos ist A2: Bei zwei beobachtbaren Variablen ist in der Korrelationsmatrix nur die Korrelation ρ der beiden Variablen interessant Die Ladungsmatrix sei hier kurz als (λ 1, λ 2 ) geschrieben und kann als Punkt mit diesen Koordinaten in einem Koordinatensystem dargestellt werden Die Bedingung an mögliche Ladungsmatrizen ist die, dass die Kommunalitäten höchstens 1 sein können, was darauf hinausläuft, dass die λ i betragsmäßig 1 sein müssen Die Punkte, die Ladungsmatrizen entsprechen, sind daher im Koordinatensystem die im Quadrat mit Seitenlänge 2 und Mittelpunkt (0, 0) Die Gleichungen der Faktorenanalyse ergeben hier ρ = λ 1 λ 2, was bei gegebenem ρ viele Lösungen besitzt, die die Bedingung λ 2 = ρ/λ 1 erfüllen müssen Im Fall ρ = 5 entsprechen die Lösungen damit gerade den Teilen der Äste der Hyperbel λ 2 = 5/λ 1, die innerhalb des genannten Quadrats verlaufen λ λ 1 Zu gleichen Kommunalitäten führen solche Ladungsmatrizen, bei denen entsprechende Elemente betragsmäßig jeweils gleich groß sind, im Beispiel entsprechen diese Ladungsmatrizen Punkten, die symmetrisch zum Nullpunkt sind (also solche, deren Koordinatenvektoren das ( 1)-fache voneinander sind) A3: Die Gleichung lautet ρ 12 = λ 11 λ 21 + λ 12 λ 22 + λ 13 λ 23 + ρ 12(λ 11 λ 22 + λ 12 λ 21 ) + ρ 13(λ 11 λ 23 + λ 13 λ 21 ) + ρ 23(λ 12 λ 23 + λ 13 λ 22 ) Für jede Interkorrelation der beobachtbaren Variablen muss eine derartige Gleichung gelten, man erhält also insgesamt 10 Gleichungen Die Unbekannten sind die 15 Elemente der

19 Lösungsskizzen zu Blatt 8 S 2 WS07/08 Ladungsmatrix sowie die 3 Interkorrelationen zwischen den Faktoren, insgesamt hat man also 18 Unbekannte Hat man eine Lösung für die Gleichungen gefunden, so muss man noch nachprüfen, ob diese auch zu möglichen Kommunalitäten führen, die ja höchstens 1 sein dürfen Damit kommen noch einmal 5 Ungleichungen hinzu, von denen beispielsweise die erste folgendermaßen lautet: λ λ λ ρ 12λ 11 λ ρ 13λ 11 λ ρ 23λ 12 λ 13 1

20 Lösungsskizzen zu Blatt 9 S 1 WS07/08 A1: Ein System aus nur einem Vektor ist genau dann la, wenn dieser Vektor der Nullvektor ist A2: Natürlich sind die Spalten linear abhängig (Rang maximal 3) z2 3z1 z3 2z1 z2:3 z3 2z2 z1+z2 z2+z3 z2 1/2 führt zu Mit si:=spalte i ist der Nullvektor zb s3-s2+s1 oder s5-s4-s3 Hier gibt es 10 Teilmengen aus 3 Spalten, die zu untersuchen sind La sind offenbar nur (1,2,3), (3,4,5) Die anderen 8 Teilmengen sind lu Der Rang ist 3 Alle Spaltenvektoren können als Linearkombination der übrigen geschrieben werden (jeder Vektor taucht siehe die beiden Lösungen oben in einer geeigneten nichttrivialen Darstellung von 0 mit einem Koeffizienten 0 auf) Kein Zeilenvektor ist Linearkombination der übrigen (Rang ist 3) Der Kollege hat einen Fehler gemacht, da er Spaltenrang=2 erhält A3: Wäre die Teilmenge linear abhängig, so könnte man 0 als nichttriviale Linearkombination der Teilmenge schreiben, also auch als nichttriviale Linearkombination aller Vektoren, wenn man die übrigen mit Koeffizient 0 hinzufügt Es wäre also die Menge aller Vektoren linear abhängig im Widerspruch zur Voraussetzung Die entsprechende Aussage lautet: Jede Obermenge linear abhängiger Vektoren ist wieder linear abhängig (Wäre eine Obermenge lu, so wäre es nach dem ersten Teil auch die Ausgangsmenge, die ja Teilmenge der Obermenge ist) In der genannten Aufgabe erkennt man wegen Rang 3 sofort, dass alle Teilmengen von 4 oder 5 Vektoren la sind Von den zweielementigen Teilmengen ist jede auch Teilmenge einer der linear unabhängigen Teilmengen von drei Vektoren, daher sind alle zweielementigen Teilmengen lu, damit auch alle einelementigen und die leere Menge sowieso

21 Lösungsskizzen zu Blatt 10 S 1 WS07/08 A1: ( ) 3 5, singulär, A2: Nein, Rang ist höchstens 2 A3: Damit diese Regel überhaupt sinnvoll ist, müssen A und B invertierbare (also insbesondere uadratische) Matrizen sein In diesem Fall ist sie aber auch richtig, denn nach den Rechenregeln für partitionierte Matrizen gilt ( ) ( ) A 0 A B 0 B 1 = ( ) AA A0 + 0B 1 0A 1 + B BB 1 = ( ) I 0 = I 0 I In dieser Rechnung stehen die Symbole 0 und I für Nullmatrizen bzw Einheitsmatrizen der jeweils passenden Größe Die vorgebliche Inverse erfüllt damit die an die Inverse gestellte Bedingung, so dass die Regel sich als richtig erweist A4: (A 1 ) = (A ) 1 = A 1 A5: (aa)((1/a)a 1 ) = (a (1/a))AA 1 = 1I = I A6: Die Unkorreliertheit der Fehler bei verschiedenen Items ist eine Abschwächung der lokalen stochastischen Unabhängigkeit Die Eigenschaft der τ- Äuivalenz liegt dann vor, wenn alle a i gleich sind, ebenso alle b i (der wahre Wert beim i-ten Item ist nämlich a i m+b i ), und wenn zusätzlich alle Fehlervarianzen gleich sind, also die Varianzen aller g i Für schwache Parallelität können die b i verschieden sein Ist σg 2 i die Varianz des i-ten Fehlers und σm 2 die von m, so errechnet sich die Varianz σi 2 des i-ten Items zu a 2 i σm 2 + σg 2 i Die schwache Parallelität kann also auch durch die Forderung ausgedrückt werden, dass alle a i gleich groß sind und auch alle σi 2 Die Standardisierung besteht darin, m und die y i durch ihre z-transformierte zu ersetzen Bezeichnet man die z-transformierte von m, die ja in der Faktorenanalyse der (einzige) Faktor werden soll, mit f, so gilt f = m/σ m + c, wo c eine - hier irrelevante - Konstante ist Bezeichnet man das Ergebnis der Standardisierung von y i mit z i, so gilt ebenso z i = y i /σ i +c i mit irrelevanten Konstanten c i Aus der Gleichung y i = a i m + b i + g i wird durch Standardisieren von y i und Einsetzen von m die Gleichung z i = (a i σ m /σ i )f + (1/σ i )g i (dass die Konstanten rechts wegfallen, sieht man durch Bildung des Erwartungswerts, der

22 Lösungsskizzen zu Blatt 10 S 2 WS07/08 0 sein muss) Bezeichnet man jetzt noch mit λ i den Koeffizienten (a i σ m /σ i ) und mit e i die reskalierte Fehlervariable (1/σ i )g i, so erhält man die Gleichungen z i = λ i f + e i, die insgesamt wegen der Unkorreliertheit der e i (die sie von den g i erben) gerade die Gültigkeit eines faktorenanalytischen Modells mit einem Faktor postulieren Ob die Voraussetzung stimmt, dass alle Einzelitems bis auf einen Fehler dasselbe messen, kann so mit Hilfe der Faktorenanalyse überprüft werden ergeben sich deutliche Hinweise darauf, dass ein Einfaktormodell nicht gelten kann, so kann auch die Voraussetzung nicht richtig sein Offenbar ist hier die Kommunalität eines Einzelitems gleich seiner uadrierten Faktorladung λ 2 i Dies ist nach den Voraussetzungen gleichzeitig die Reliabität des Items Im Fall der schwachen Parallelität sind alle λ i gleich, die Ladungsmatrix also ein Vielfaches des Vektors aus lauter Einsen A7: Der Kosinus ist 1/3 A8: Als Unbekannte nimmt man die Mengen der verschiedenen Stoffe (Edukte und Produkte), die auf der rechten Seite nimmt man dabei negativ Dann ergibt sich für jedes Element eine Gleichung Im angegebenen Beispiel nimmt man als Unbekannte also die Menge x 1 an CS 2, die Menge x 2 an Cl 2 und die mit Minuszeichen versehenen Mengen x 3 an CCl 4 und x 4 an S 2 Cl 2 Die Minuszeichen kommen daher, dass man nachher alles auf einer Seite haben möchte Für jedes Element ergibt sich dann eine Gleichung, beispielsweise für Chlor 0 x x x x 4 = 0 Man erhält auf diese Weise hier 3 Gleichungen mit 4 Unbekannten, wobei jetzt die nichttrivialen Lösungen interessant sind Eine davon ist (1, 3, 1, 1), die die in der Aufgabe angegebene Möglichkeit für die Mengenverhältnisse liefert

23 Lösungsskizzen zu Blatt 11 S 1 SS08 A1: Das Erzeugnis der Spalten hat Dimension 3 Eine Basis besteht beispielsweise aus dem 1, 3 und 6 Spaltenvektor der Originalmatrix (wie man an der Staffelform sieht) Man kann aber auch mit elementaren Spaltenumformungen eine Basis herstellen, die praktischer ist Man kann beispielsweise die gerade genannte Basis hernehmen und mit elementaren Spaltenoperationen verschönern Ausgangspunkt ist dann die dreispaltige Matrix, die der Reihenfolge nach die genannten Vektoren enthält Die Umformungen s1:2, s2+2s1, s3+5s1, s2 1, s3+3s2, s3 1, s1 s2, s2 s3, s1+2s3 führen dann zu den Vektoren (1, 0, 0, 1), (0, 1, 0, 2) und (0, 0, 1, 0), die eine sehr angenehme Basis darstellen Die Vektoren auf der rechten Seite der Originalgleichungen müssten bezüglich dieser Basis die Koordinaten (1, 1, 3) bzw (0, 1, 4) besitzen, wie man sofort an den ersten drei Komponenten erkennt Betrachtung der vierten Komponente zeigt dann, dass der erste Vektor im Erzeugnis liegt, der zweite jedoch nicht A2: Zuerst kann man beispielsweise den Unterraum betrachten, der durch die beiden gegebenen Vektoren aufgespannt wird, und die Basis verschönern: s2 3s1, s2 1/4, s1 2s2 führt zu (1, 0, 1), (0, 1, 2) Hier sieht man sofort, dass beispielsweise der Vektor (0, 0, 1) mit diesen beiden zusammen eine Basis ergibt, also auch mit den ursprünglichen beiden (warum?) A3: Eine Möglichkeit ist die, die entsprechenden Gleichungssysteme simultan zu lösen Dies ergibt aus schließlich 1 0 1/4 1/ /4 1/ mit z2 2z1, z3 3z1, z3 2z2, z1+3/4z2, z2 1/4 Wie man sieht, liegen der erste und dritte Vektor in dem Unterraum, der zweite nicht Alternativ sieht man dies sofort mit der Basis aus der letzten Aufgabe A4: Wären die beiden Vektoren linear abhängig, so müsste einer eine Linearkombination des andern sein, hier also ein Vielfaches, und dann lägen sie auf einer Geraden A5: Aus der Lösung zum ersten Aufgabenblatt erkennt man, dass der Lösungsraum die Dimension 3 hat Eine mögliche Basis bilden dann die Vektoren ( 2, 1, 0, 0, 0, 0), (1, 0, 2, 1, 0, 0) und ( 1, 0, 2, 0, 1, 0) (die Standardkonstruktion) Die angegebenen Lösung hat dann die Koordinaten (1, 1, 1), wie man sofort an der 2, 4 und 5 Komponente erkennt

24 Lösungsskizzen zu Blatt 11 S 2 SS08 A6: Da es sich um 2 linear unabhängige Vektoren handelt, haben wir eine Basis (aufgrund welcher Feststellung(en)?) Umrechnung in Koordinaten bezüglich dieser Basis mit der Matrix B 1, wo B = ( 2 ) also B 1 = ( 2 ) Die Koordinaten von (8, 2) sind dann (1, 2), die von (1, 6) sind (2, 1) Der Vektor mit neuen Koordinaten (1, 1) ist (5, 0), der mit Koordinaten ( 1, 2) ist ( 8, 2) Skizze (aus Platzgründen ohne Bezeichnungen) A7: Die Inverse ist Lösungen: (2, 1, 1) ; (6, 3, 1) 1 1 0

25 Lösungsskizzen zu Blatt 12 S 1 SS08 A1: A2: Einerseits enthält jeder lineare Unterraum die Null, andererseits folgt daraus, dass U + x die Null enthält, dass auch 0 ein möglicher Verschiebungsvektor ist, weshalb dann U + x = U + 0 = U linear ist (welche Feststellung ist hier wichtig?) Damit hat man die erste Aussage Zur zweiten Aussage: U + x enthält 0 genau dann, wenn 0 x in U liegt (welche Feststellung?), wenn also x in U liegt, was genau dann der Fall ist, wenn x in U liegt A3: Es ist zu untersuchen, ob (1, 1, 2) (1, 0, 0) = (0, 1, 2) in U liegt Dies ist offenbar der Fall, Koordinatenvektor ist (1, 1) A4: Der Winkel zwischen dem zu X und zu Y gehörenden Vektor ist 3686, der zwischen X und Z ist 4557, der Winkel zwischen Y und Z liegt daher zwischen 871 und 8243, die Korrelation also zwischen 132 und 990 A5: Der Rang der Matrix ist 1, folglich liegen alle Daten in einem eindimensionalen affinen Unterraum durch das Zentroid Der zugehörige lineare Unterraum wird durch (2, 1) aufgespannt, diese Gerade hat also Steigung 5 (fällt um 1 auf Strecke von 2) Das Zentroid muss auf der Geraden liegen, die folglich die Gleichung y = 5x + 5 hat A6: a: Skizze (der Einfachheit halber hier ohne Bezeichnungen) Einiges ist schon für spätere Teile eingezeichnet

26 Lösungsskizzen zu Blatt 12 S 2 SS08 b: Kommunalitäten: 053, 082, 065, 089, 09 Wurzeln daraus sind Längen: 073, 091, 081, 094, 095 Nachmessen! c: Der Winkel ist eingezeichnet, 96 Grad, Korrelation 986 d: Die Faktoren sind unkorreliert Die neue Ladungsmatrix ist Die neuen Faktoren sind eingezeichnet, ebenso Hilfslinien zum Ablesen der neuen Ladungen der ersten Variable e: Die Korrelation der neuen Faktoren ist 8, der Winkel ist 3687 Grad In der folgenden Skizze sind wieder die Hilfslinien zum Ablesen der neuen Ladungen der ersten Variable eingezeichnet

27 Lösungsskizzen zu Blatt 12 S 3 SS08 Die neue Ladungsmatrix ist Die Rechnung stimmt mit der Skizze überein, vgl die erste Variable f: Negative Korrelation: unterhalb der horizontalen Achse, positive Ladung: rechts von der zweiten Faktorachse Kommunalität darf höchstens 1 sein, Ergebnis also das mit hier bezeichnete Tortenstück hier

28 Lösungsskizzen zu Blatt 12 S 4 SS08 g: Die Punkte sind die in dem mit gekennzeichneten Kreissegment Die Tangente an die Kreis parallel zur Achse des 2 Faktors schneidet die erste Faktorachse im Maximalwert, hier bei h: Das muss jede(r) machen, wie es ihm/ihr gefällt, zum Beispiel so: Der Winkel zwischen den Faktoren ist hier 48 Grad, die Korrelation daher 66 Die Matrix G ist etwa ( ),

29 Lösungsskizzen zu Blatt 12 S 5 SS08 als Ladungsmatrix liest man etwa ab , Rechnung: alte Ladungsmatrix mit G 1 multiplizieren A7: Man betrachtet das Diagramm, in dem die reduzierten Variablen in kovarianztreuer Darstellung eingetragen sind Für ein Modell mit zwei Faktoren ist dies eine direkte Übersetzung der Ladungsmatrix, so dass sich jedes Diagramm, solange nur die Punkte innerhalb des Einheitskreises liegen, umgekehrt in die Ladungsmatrix eines möglichen faktorenanalytischen Modells übersetzen lässt Daraus, dass man hier die Punkte beliebig setzen kann, also auch so, dass sich nur eine Gruppe, ebenso aber auch so, dass sich drei, vier etc deutlich unterscheidbare Gruppen von Punkten ergeben, erkennt man die Irrigkeit der diskutierten Ansicht

30 Lösungsskizzen zu Blatt 13 S 1 SS08 A1: Skizzen (aus Platzgründen ohne Bezeichnungen) a: Zur Verdeutlichung der Wirkung der linearen Abbildung sind die Punkte teilweise durch einander entsprechende Linien verbunden Was bleibt gleich, was ändert sich? b: s 1 1 s s s 1 s db c s s bd s s 1 1 s s bd c 1 1 c Hier werden jeweils alle Punkte, die auf Parallelen zur Hauptdiagonalen liegen, auf den gleichen Punkt abgebildet Alle Bildpunkte liegen auf einer Geraden c: in a) ist der Kern {0} und das Bild R 2, in b) sind Kern und Bild eindimensional, der Kern wird aufgespannt von (1, 1), das Bild von (1, 2) s bd s 1 Kern Bild Das Bild ist der Unterraum, der die Bildpunkte aus Teil b enthält Der Kern ist die Hauptdiagonale, und alle Punkte, die auf derselben Parallele zum Kern liegen, haben das gleiche Bild

31 Lösungsskizzen zu Blatt 13 S 2 SS08 A2: Die Abbildung hat Rang 2, der Kern ist also eindimensional, das Bild zweidimensional Jede Basis des R 2 ist daher Basis des Bildes, zb die aus den Vektoren (1, 0) und (0, 1) bestehende Eine Basis des Kerns ist beispielsweise (1, 1, 1) ( ) 2 2 A3: a: Normalengleichungen, Koeffizienten linke Seite:, rechte Seite: (6, 12) 2 3 Daher Koordinaten ( 3, 6) und Projektion (3, 3, 6) ( ) b: c: d: Das orthogonale Komplement ist hier eindimensional, es enthält alle Vektoren x mit A x = 0, wo A als Spalten die Basisvektoren von V besitzt Ein Vektor aus der Lösung ist (1, 1, 0), auf 1 normiert 1/ 2 (1, 1, 0), was bereits eine Basis ist e: Der Anteil in V wurde schon in a) ausgerechnet, der Rest ist der zu V senkrechte Anteil, hier also ( 1, 1, 0) A4: Aus den Basisvektoren in Originalreihenfolge erhält man 1/ 2 (1, 1, 0) und (0, 0, 1) als Basis Bei vertauschten Basisvektoren wird der zweite Vektor beim Senkrechtmachen zu (1/3, 1/3, 2/3), was zu der Basis 1/ 3 (1, 1, 1), 3/2 (1/3, 1/3, 2/3) führt; den zweiten Vektor kann man dabei auch als 1/ 6 (1, 1, 2) schreiben A5: A6: a: Der Rang ist b: Die Inverse ist 3 1 0, die Inverse der Transponierten ist die Transponierte der Inversen (also nicht neu rechnen!), also

32 Lösungsskizzen zu Blatt 13 S 3 SS08 A7: c: Die Spur ist 5 d: Die Determinante ist Als Fläche sollte sich nach der Formel Grundseite mal Höhe bei Benutzung eines geeigneten Maßstabes stets 10 ergeben (also die Determinante) Man beachte: Die Figur ist kein Rechteck, also nicht das Produkt der Seitenlängen nehmen! A8: Die Determinante ist ( ) ( ) ( ) a22 a a 11 det 23 a21 a a 12 det 23 a21 a + a 13 det 22 a 32 a 33 a 31 a 33 a 31 a 32, also gleich a 11 (a 22 a 33 a 23 a 32 ) a 12 (a 21 a 33 a 23 a 31 ) + a 13 (a 21 a 32 a 22 a 31 ), woraus man leicht das gewünschte Ergebnis gewinnt

33 Lösungsskizzen zu Blatt 14 S 1 SS08 A1: Bei der ersten Matrix ist die Determinante gleich 5 und die Spur gleich 4 Die Eigenwerte müssen daher 5 und 1 sein, was man natürlich auch mit Hilfe des charakteristischen Polynoms erhält, das hier λ 2 4λ 5 ist Tatsächlich findet man als Eigenvektoren zu 5 den Vektor (1, 1) und alle Vielfachen, als Eigenvektoren zu 1 den Vektor (2, 1) und Vielfache Die Eigenräume sind die von den Vektoren (1, 1) und (2, 1) erzeugten eindimensionalen Unterräume (man beachte, dass sie nicht orthogonal sind!) Bei der zweiten Matrix ist die Spur 2 und die Determinante 8, weshalb man die Eigenwerte 4 und 2 erhält (das charakteristischen Polynom ist λ 2 2λ 8), mit zugehörigen Eigenvektoren (1, 1) und (1, 1) Die Eigenvektoren stehen tatsächlich senkrecht aufeinander Sie haben aber noch nicht Länge 1, so dass man geeignete Vielfache davon nehmen muss, zum Beispiel die (1/ 2)-fachen (Sonst kommen jeweils nur noch die ( 1)-fachen davon in Frage) Die Matrix G kann also als ( ) 1/ 2 1/ 2 1/ 2 1/ 2 gewählt werden und tatsächlich gilt ( ) ( 1/ 2 1/ ) ( ) 1/ 2 1/ 2 1/ 2 1/ / 2 1/ 2 ( ) ( ) ( ) ( ) = (1/2) = Bei der dritten Matrix ist das charakteristischen Polynom λ 2 4λ + 4, Spur und Determinante sind 4 Als Lösungen erhält man den Eigenwert 2 doppelt Ermittelt man den zugehörigen Eigenraum, so ist er eindimensional und wird von (0, 1) aufgespannt Hier ist die Summe der Dimensionen der Eigenräume also nicht 2, weshalb die entsprechende Feststellung über den Zusammenhang zwischen Eigenwerten und Spur und Determinante nicht anwendbar ist (Bemerkung: Der Eigenwert 2 hat die algebraische Multiplizität 2, mit der der Zusammenhang dann stimmt) A2: Man kann natürlich jeweils mit dem charakteristischen Polynom die Eigenwerte ausrechnen Hier kann man jedoch auch einfacher vorgehen: Bei (2 2)-Matrizen ist die Determinante das Produkt der beiden Eigenwerte und die Spur ist die Summe Ist die Determinante negativ, so müssen die beiden Eigenwerte (sie sind reell, da die Matrizen symmetrisch sind) unterschiedliches Vorzeichen haben, die Matrix ist also nicht positiv definit oder positiv semidefinit Ist die Determinante gleich 0, so muss ein Eigenwert 0

34 Lösungsskizzen zu Blatt 14 S 2 SS08 sein, der andere ist dann die Spur, an deren Vorzeichen man dann sofort erkennt, ob die Matrix positiv semidefinit ist oder nicht Ist die Determinante positiv, so haben beide Eigenwerte gleiches Vorzeichen, und an der Spur erkennt man, ob dieses + oder ist Die erste Matrix hat Determinante 0 und Spur 5, ist also positiv semidefinit Die zweite hat Determinante 3, ist also nicht positiv semidefinit, und die dritte hat Determinante 5 und Spur 5, und ist daher positiv definit A3: Man errechnet zunächst BA = 2 3 4, AB = ( ) Die Eigenwerte von AB sind leichter zu bestimmen: Es sind 1 und 3 mit zugehörigen Eigenvektoren x 1 = (1, 1) und x 2 = (1, 1) Es folgt, dass auch BA diese Eigenwerte besitzt, wobei die Eigenräume von den Bx i aufgespannt werden, also von (2, 0, 1) und (4, 2, 1) Die Matrix BA kann höchstens Rang 2 haben (warum?), und daher besitzt sie noch den Eigenwert 0 mit zugehörigem Eigenvektor (1, 2, 1) Eine Kontrollrechnung bestätigt diese Ergebnisse A4: Die Matrix A sei ( ) a11 a A = 12 a 21 a 22 Berechnet man das charakteristische Polynom, so erhält man λ 2 (a 11 + a 22 )λ + (a 11 a 22 a 12 a 21 ), die Koeffizienten sind also tatsächlich die negative Spur und die Determinante Die Formel zur Bestimmung der Eigenwerte folgt dann aus der bekannten p-formel Die Matrix λ i I A ist ( ) λi a 11 a 12 a 21 λ i a 22 Da λ i ein Eigenwert ist, ist diese Matrix singulär; ist die erste Zeile also nicht die Nullzeile, so muss die zweite Zeile ein Vielfaches der ersten Zeile sein und kann bei der Bestimmung des Kerns weggelassen werden Ein Eigenvektor ist daher einfach ein Vektor, der auf dem ersten Zeilenvektor senkrecht steht Man rechnet sofort nach, dass für einen beliebigen Vektor (a, b) der Vektor ( b, a) senkrecht ist, und erhält durch Anwendung auf die erste Zeile das Gesamtergebnis Ist die erste Zeile die Nullzeile, so kann man

35 Lösungsskizzen zu Blatt 14 S 3 SS08 diese weglassen und sein Glück mit der zweiten versuchen; ist dies nicht ebenfalls die Nullzeile (was dann?), so ist (λ i a 22, a 21 ) ein Eigenvektor (mit derselben Argumentation) A5: Das Umsortieren der Komponenten eines Vektors x kann man durch Multiplikation Tx mit einer geeigneten Matrix T bewirken Die Matrix T enthält dabei in der i-ten Zeile nur Nullen außer an der Stelle, die zu der Variablen gehört, die nach dem Umordnen an der i-ten Stelle stehen soll In jeder Zeile steht also genau eine Zahl 0, nämlich eine Eins Offenbar gilt dann TT = I Die Kovarianzmatrix eines umsortierten Variablenvektors Tx ist gleich TKT, wo K die Kovarianzmatrix von x ist Die Determinante dieser Matrix ist det(t) det(k) det(t ) = det(k), da det(t) det(t ) = det(tt ) = det(i) = 1 gilt A6: a) und b): Für die Determinante D einer Korrelationsmatrix von p Variablen gilt die Formel det(r x ) = ( 1 R 2 2,1) ( 1 R 2 3,12 ) ( 1 R 2 p,1(p 1) ) Da die Faktoren auf der rechten Seite alle 1 sind, ist ihr Produkt D nicht größer als der letzte dieser Faktoren, der daher D ist Der Determinationskoeffizient der letzten Variablen ist daher höchstens 1 D Dies gilt jedoch auch für alle anderen Variablen, da man mit einer Umordnung jede zur letzten machen kann, ohne dass sich die Determinante der Korrelationsmatrix ändert Damit ist a) gezeigt Wären alle Faktoren auf der rechten Seite der Gleichung echt größer als D 1/(p 1), so wäre ihr Produkt D echt größer als (D 1/(p 1) ) p 1 = D, was nicht möglich ist Einer der Faktoren muss daher D 1/(p 1) sein Der Determinationskoeffizient bei der Vorhersage der entsprechenden Variablen durch die vorhergehenden ist also 1 D 1/(p 1) und damit erst recht der Determinationskoeffizient bei Vorhersage der Variablen durch alle restlichen Damit ist auch b) gezeigt c) klar d) Der maximale Determinationskoeffizient ist 9 (eher uninteressant) und 1 1 1/4 = 437 (eher interessant) e) Der maximale Determinationskoeffizient ist 1 (eher interessant) und 1 9 1/4 = 026 (eher uninteressant) f) Da die Determinante einer Korrelationsmatrix der Quotient der Determinante der Kovarianzmatrix und des Produkts der Varianzen ist, ist die

36 Lösungsskizzen zu Blatt 14 S 4 SS08 Determinante der Korrelationsmatrix hier 12/240 = 05 Folglich ist der maximale Determinationskoeffizient 95 und /3 = 63 A7: Es gilt Spur(Sŷ) Spur(S y ) = j V(ŷ j) Spur(S y ) = j V(y j ) V(ŷ j ) Spur(S y ) V(y j ) In den Produkten sind die zweiten Faktoren V(ŷ j )/V(y j ) die jeweils univariat aufgeklärten Varianzanteile, während die Summe der ersten Faktoren V(y j )/Spur(S y ) gleich 1 ist Die ersten Faktoren können daher als Gewichte interpretiert werden

37 Lösungsskizzen zu Blatt 15 S 1 SS08 A1: Das Zentroid ist (1, 3) und die Kovarianzmatrix ( ) Die Eigenwerte sind hier 24 und 4 mit zugehörigen Eigenvektoren (2, 1) und ( 1, 2) b: Skizze (das 2-fache ist für Teil c auch schon eingezeichnet): r r r r r 1 1 c: Anteil der Daten im Innern der verdoppelten Ellipse ist mindestens 1 2/2 2 = 1/2 Tatsächlich liegen hier schon alle Daten d: Mittelwert und Streuung sind 26 und 1528 Die Ellipse wird auf ein Intervall um Mittelwert der SLK abgebildet, dessen Länge die doppelte Streuung ist Das Zentroid wird auf den Mittelwert abgebildet 1 1

38 Lösungsskizzen zu Blatt 15 S 2 SS08 A2: a: Die affine Transformation y = Ax + b wird gegeben durch ( ) ( ) A =, b = b: ȳ = (1, 3), S y = ( 17 ) c: Die Eigenwerte von S y sind 19 und 9, zugehörige Eigenvektoren (2, 1) und (1, 2) Mit diesen Angaben und ȳ kann die Ellipse gezeichnet werden Die Ellipse ist das Bild des dreidimensionalen Ellipsoids, wie man an der Formel für affine Bilder von Ellipsoiden sieht im Vergleich mit der Formel für Kovarianzmatrix und Zentroid affin transformierter Daten d: Das Intervall ist das Intervall um 3 mit der halben Länge 11 Dies Intervall ist die Projektion der Ellipse auf die y 2 -Achse e: Der Anteil ist 1/2; für den Faktor k muss also 1 2/k 2 1/2 gelten Es folgt, dass k = 2 ausreicht f: Entsprechend berechnet man, dass k = 6 hier reicht g: Hier errechnet man, dass k = 2 ausreicht h: Nein, da die k-werte verschieden sind; das Bild der Ellipse ist größer Die Erklärung dieser im ersten Moment überraschenden Tatsache liegt darin, dass das Urbild des Intervalls unter der Projektion nicht die Ellipse ist, sondern ein Streifen, der sich nach rechts und links bis Unendlich erstreckt Dieser enthält dann in der Tat mindestens 100 Datenpunkte, ist aber ein Bereich von einer ganz anderen Form i: Auch hier ist das Bild des Ellipsoids größer A3: Dies ist die Gesamtkommunalität A4: a: Wenn die repräsentierenden Vektoren linear abhängig sind, wenn also ein Prädiktor eine lineare Transformation des andern ist b: Beispiel: positives Gewicht bei einfacher Regression auf X 1, negatives bei multipler Regression kann beispielsweise auftreten, wenn X 1 und X 2 hoch korrelieren und der Lotfußpunkt vom X 1 -Vektor aus gesehen jenseits des X 2 -Vektors liegt, das Lot auf X 1 -Gerade aber noch in deren positivem Bereich fußt c: Zum Beispiel hohe Korrelation der Prädiktoren, Kriterium dann so, dass der Vektor nahe bei der aufgespannten Ebene liegt, aber mit großen Winkeln zu den Prädiktorenvektoren

39 Lösungsskizzen zu Blatt 15 S 3 SS08 d: A5: Die Inverse der angegebenen Matrix ist , der Differenzvektor ist (2, 0, 2), weshalb die Mahalanobisdistanz gleich 21 = 458 ist A6: Das Zentroid ist (10, 15), die Kovarianzmatrix ( ) Die Eigenwerte sind 60 und 10, als Eigenvektoren erhält man mit dem vorgeschlagenen Verfahren (20, 40) und (20, 10), was man sinnvollerweise gleich durch (1, 2) und (2, 1) ersetzt Die Orthonormalbasis aus Eigenvektoren besteht dann aus 1/ 5 (1, 2) und 1/ 5 (2, 1), die Matrix G ist also G = 1 ( ) Man erhält damit die folgende Skizze (hier der Einfachheit halber ohne Bezeichnungen, die erste HK zeigt nach oben): 5 5 Die Hauptkomponenten der ersten beiden Datenpunkte errechnet man zu ( 3 5, 5) = ( 6708, 2236) und (3 5, 5) = (6708, 2236), was mit der Zeichnung übereinstimmt

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Probeklausur zu Mathematik 2 für Informatik

Probeklausur zu Mathematik 2 für Informatik Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Aufgabenblatt 1 S. 1 WS07/08

Aufgabenblatt 1 S. 1 WS07/08 Aufgabenblatt 1 S. 1 WS07/08 A1: Lösen Sie das folgende Gleichungssystem, wenn es lösbar ist. 4 x + 12 y 6 z = 26 2 x 8 y 6 z = 17 2 x + 9 y + 15 z = 19 A2: Untersuchen Sie die beiden folgenden Gleichungssysteme

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

Hilfsblätter Lineare Algebra

Hilfsblätter Lineare Algebra Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,

Mehr

Lineare Algebra für Ingenieure

Lineare Algebra für Ingenieure TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ. Eigenwert, Eigenvektor In der Regel hat bei einer linearen Abbildung das Bild eines Vektors eine andere Richtung als das Original r. Bei der Untersuchung der geometrischen Eigenschaften von linearen Abbildungen

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Exkurs: Eigenwertproblem

Exkurs: Eigenwertproblem 1 von 7 29.11.2008 16:09 Exkurs: Eigenwertproblem Bei der Faktorenanalyse tritt das Eigenwertproblem auf. Man spricht von einem Eigenwertproblem wenn das Produkt zwischen einer Matrix und einem Vektor

Mehr

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik I+II Frühlingsemester 219 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 46 8. Lineare Algebra: 5. Eigenwerte und

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Aufgaben zu Kapitel 16

Aufgaben zu Kapitel 16 Aufgaben zu Kapitel 16 1 Aufgaben zu Kapitel 16 Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

Lineare Algebra. 1 Lineare Abbildungen

Lineare Algebra. 1 Lineare Abbildungen Lineare Algebra Die lineare Algebra ist ein Teilgebiet der Mathematik, welches u. A. zur Beschreibung geometrischer Abbildungen und diverser Prozesse und zum Lösen linearer Gleichungssysteme mit Hilfe

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine Vektorräume (Teschl/Teschl 9 Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen: Eine

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit

Mehr

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011 Hier eine kurze Erklärung zu der. Als Grundlage diente teilweise eine Beschreibung von Markus Göhl vom Sommersemester 00. Quadriken Definition. Eine Quadrik ist die Nullstellenmenge eines quadratischen

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Grundlagen der linearen Algebra

Grundlagen der linearen Algebra WINTERSEMESTER 006/07 SEITE Grundlagen der linearen Algebra. Grundbegriffe. Vektoren Aus der Vektorrechung ist bekannt, daß ein Vektor im zweidimensionalen Raum R bei gegebenem Koordinatensystem durch

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG R Käppeli L Herrmann W Wu Herbstsemester Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe Beispiel einer Koordinatentransformation Gegeben seien zwei

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya Inverse Matrix -E Ma Lubov Vassilevskaya Inverse Matrix Eine n-reihige, quadratische Matrix heißt regulär, wenn ihre Determinante einen von Null verschiedenen Wert besitzt. Anderenfalls heißt sie singulär.

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1. b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen 196 KAPITEL 4. VEKTORRÄUME MIT SKALARPRODUKT 4. Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen In diesem Abschnitt betrachten wir Vektorräume über IR und über C. Ziel ist es, in solchen Vektorräumen

Mehr

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008 Lösungshinweise zur Klausur Mathematik für Informatiker III (Dr. Frank Hoffmann) 8. Februar 8 Aufgabe Algebraisches I /6++ (a) Rechnen Sie zunächst nach, dass die Menge B = {,, von Vektoren eine Basis

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 11 1. Juni 2010 Rechenregeln für Determinanten Satz 62. (Determinanten von Dreiecksmatrizen) Es sei A eine obere oder untere n n-dreiecksmatrix.

Mehr

x+ 2y = 2 3x+ 3y+ 3z = 0

x+ 2y = 2 3x+ 3y+ 3z = 0 Mathematik für Informatiker III WS 5/ Musterlösung zur Klausur vom 8.. Anmerkung: Für die Aufgaben bis 4 gab es 4 Punkte, zusammen mit der Zusatzaufgabe 5 konnte man 4 Punkte erreichen. Um die Klausur

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Matrizen und Determinanten, Aufgaben

Matrizen und Determinanten, Aufgaben Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen

Mehr

H. Stichtenoth WS 2005/06

H. Stichtenoth WS 2005/06 H. Stichtenoth WS 25/6 Lösungsvorschlag für das. Übungsblatt Aufgabe : Der gesuchte Unterraum U ist die lineare Hülle von v und v 2 (siehe Def. 5. und Bsp. 5.5b), d. h. U : Spanv,v 2 } v R : v λ v + λ

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4.

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4. Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4. Aufgabe 2.1 (8 Punkte) Es sei K ein Körper, n N, V ein 2n-dimensionaler K -Vektorraum und U

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

20. und 21. Vorlesung Sommersemester

20. und 21. Vorlesung Sommersemester 2. und 21. Vorlesung Sommersemester 1 Der Spezialfall fester Drehachse Aus dem Trägheitstensor sollte der früher behandelte Spezialfall fester Drehachse wieder hervorgehen. Wenn man ω = ω n mit einem Einheitsvektor

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr