44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert ist klar (denn es bleibt ja sogar der Zeilenraum der selbe) Schwerer zu zeigen ist daß der Rang auch bei elementaren Spaltenumformungen erhalten bleibt (wir glauben das an dieser Stelle den Mathematikern) Der Rang ist nichts anderes als die Zeilenzahl der umgeformten Matrix nach Schritt des Gauß-Jordan-Verfahrens und kann daher auf diesem Weg bestimmt werden Nach Konstruktion ist der Rang auch die Zahl der positiven Diagonalemente nach Schritt 4 Andererseits ist die Zahl der negativen Diagonalelemente die Dimension des Lösungsraumes für das homogene Gleichungssystem A x 0 Der Kern einer Matrix (bzw der durch sie dargestellten linearen Abbildung) ist der Lösungsraum des zugehörigen homogenen Gleichunsgsystems Wir haben damit folgende wichtigen Gleichungen: (R) Rang A Dimension des Zeilenraumes Dimension des Spaltenraumes Rang A T (R) Rang A + dim Kern A Spaltenzahl von A Kennt man also den Rang so auch die Dimension des Lösungsraumes und die des Bildraumes Die Summe der beiden Dimensionen ist die Spaltenzahl Das Ergebnis des Gauß-Jordan-Verfahrens bis einschließlich Schritt (und damit die Bestimmung einer Basis des Zeilenraumes und insbesondere des Ranges) liefert MAPLE in einem Schritt nach Eingabe des Befehls gaussjord(a) Beispiel : Eine Basis des Zeilenraums der x5-matrix 0-0 0-0 0 0 9 Nach Schritt des Gauß-Jordan-Verfahrens gelangt man zu folgender Zeilenbasis: 0 0 - - 0 0 0 0 0 0 4 Offenbar ist der Rang einer mxn-matrix höchstens so groß wie das Minimum von m und n Die Wahrscheinlichkeit daß er echt kleiner als dieses Minimum wird ist Null - aber es passiert eben doch in Spezialfällen Zum Beispiel hat jede Matrix der Form a T a für einen beliebigen von 0 verschiedenen Zeilenvektor den Rang (denn alle Spalten sind Vielfache von a T )
Die Rang-Ungleichung Rang( AB ) min ( Rang( A ) Rang( B) ) gilt für beliebige Matrizen A und B deren Produkt definiert ist Der Test zufälliger Matrizen zeigt dass die Rang-Ungleichung fast immer eine Gleichung ist! Beispiel : Rang von Produktmatrizen A 79 56-85 -55-7 B 49 6-5 97 50 57-59 AB -8675 087 - -59-604 BA -670 46 7 488 0-780 -8858-5059 Rang( A ) Rang( B) Rang( AB) Rang( BA) Wenn für zwei Matrizen A und B sowohl das Produkt AB als auch BA definiert ist (wann ist das der Fall?) so braucht der Rang von AB dennoch nicht mit dem Rang von BA übereinzustimmen Beispiel : Produkte mit verschiedenen Rängen 0 0 0 0 0 A 0 0 B 0 0 0 0 0 0 0 0 0 AB 0 0 0 BA 0 0 0 Rang( A ) Rang( B) Rang( AB) Rang( BA) Ohne die Lösungen zu berechnen testet man mit Hilfe des Ranges die Lösbarkeit eines linearen Gleichungssystems Das Gleichungssystem A x b ist genau dann lösbar wenn der Rang der geränderten Matrix (Ab) mit dem Rang von A übereinstimmt Denn das bedeutet gerade daß der Spaltenraum von A die gleiche Dimension wie der Spaltenraum von (Ab) hat also mit diesem bereits zusammenfällt - und das passiert dann und nur dann wenn b eine Linearkombination der Spalten von A also in der Form A x b darstellbar ist Beispiel 4: Ein unlösbares Gleichungssystem 45-8 77 A -9 9 b 66 Rang( A) Rang ( A b ) 4-6 54 Ein Gleichungssystem mit einer x-matrix A ist nur sehr selten lösbar weil A höchstens Rang haben kann die geränderte Matrix aber fast immer den Rang hat!
Invertierbare Matrizen Eine quadratische Matrix A heißt invertierbar falls es eine Matrix B mit A B B A E gibt Im nächsten Satz stellen wir eine ganze Reihe von Kriterien für die Invertierbarkeit einer Matrix zusammen Invertierbarkeitskriterien Die folgenden Aussagen über eine Matrix A aus K ( n x n ) sind äquivalent: (a) A ist invertierbar (a) Es gibt eine Matrix B mit A B E (a) Es gibt eine Matrix C mit C A E (b) Die durch A dargestellte lineare Abbildung ist bijektiv (b) Die durch A dargestellte lineare Abbildung ist surjektiv (b) Die durch A dargestellte lineare Abbildung ist injektiv (c) A x (c) A x (c) A x b hat für jedes b aus K n genau eine Lösung b hat für jedes b aus K n mindestens eine Lösung b hat für jedes b aus K n höchstens eine Lösung (d) Die Spalten von A bilden eine Basis des K n (d) Die Spalten von A bilden ein Erzeugendensystem des K n (d) Die Spalten von A sind linear unabhängig (e) A x 0 hat nur die Lösung x 0 (e) A läßt sich durch elementare Zeilenumformungen in die Einheitsmatrix umformen (e) Rang A n In jeder dieser Aussagen kann man A durch A T ersetzen Beweisschema: Die nachfolgenden Implikationen sind sämtlich ohne Mühe nachzuprüfen (a) ---> (b) ---> (c) ---> (d) ---> (e) / / / / / (a) ---> (b) ---> (c) ---> (d) ---> (e) \ \ \ \ \ (a) ---> (b) ---> (c) ---> (d) ---> (e) Auch von (e) bzw (e) zurück nach (a) kommt man relativ leicht Etwas trickreich ist der Schritt von (a) nach (a) Daß eine linksinverse Matrix mit einer rechtsinversen übereinstimmen muß sieht man so: A B E C A > B E B C A B C E C
Aufgrund des obigen Satzes gibt es zu einer invertierbaren Matrix A genau eine Matrix deren Multiplikation mit A (von links oder rechts) die Einheitsmatrix ergibt Man nennt diese Matrix die Inverse von A und bezeichnet sie mit A ( ) Sind A und B invertierbare nxn-matrizen so auch AB und es gilt ( A B ) ( ) B ( ) A ( ) Denn aufgrund des Assoziativgesetzes haben wir A B B ( ) A ( ) A E A ( ) A A ( ) E Beispiel 5: Diagonalmatrizen Jede Diagonalmatrix mit von Null verschiedenen Diagonalelementen ist invertierbar und die Inverse ist wieder eine Diagonalmatrix: Ist A von der Form und gilt a j b j so hat B A ( ) die Gestalt a 0 0 0 a 0 0 0 a b 0 0 0 b 0 0 0 b Orthogonale Matrizen sind dadurch charakterisiert daß ihre Spalten (oder Zeilen) eine Orthonormalbasis bilden Jede orthogonale Matrix A ist wegen A T A E A A T invertierbar und die Inverse ist die Transponierte Die orthogonalen x-matrizen bzw die durch sie dargestellten linearen Abbildungen werden vollständig durch den Hauptsatz am Ende von Kapitel charakterisiert: Drehmatrizen und Spiegelmatrizen Eine orthogonale x-matrix A beschreibt genau dann eine Drehung oder Spiegelung wenn es einen Einheitsvektor u gibt mit A u u Ist A dabei symmetrisch so handelt es sich um eine Spiegelung und u liegt in der Spiegelebene Ansonsten handelt es sich um eine Drehung und u erzeugt die Drehachse Alle anderen orthogonalen Matrizen beschreiben Drehspiegelungen sind also Produkte von Drehund Spiegelmatrizen
Spur und Drehwinkel Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente: Spur( A) n a j j j Bei einer Drehmatrix A berechnet sich der Cosinus des Drehwinkels φ nach der Formel Spur( A ) + cos( φ ) Denn wie wir früher gesehen haben gilt mit s sin( φ ) und c cos( φ ): A c + ( c) u ( c ) u u u s ( c) u u + u s ( c ) u u + u s c + ( c ) u ( c) u u u s ( c ) u u u s ( c ) u u + u s c + ( c ) u also Spur( A ) c + ( c ) ( + + ) u u u + c Beispiel 6: Achse und Drehwinkel einer Drehmatrix Die folgende Matrix ist orthogonal: - A : - - Probe: 0 0 A A T 0 0 0 0 Die Transponierte ist also die Inverse: A T - - - Für den Einheitsvektor u ( ) T /
ergibt sich A u u (Wenn man diesen "Eigenvektor" nicht errät kann man ihn durch Lösen des Gleichungssystems A u u finden; davon später mehr) Da A nicht symmetrisch ist muß es eine Drehmatrix sein In der Tat beschreibt A eine Drehung um die Achse R u und einen Winkel von 60 0 bzw π/ Denn die Spurformel liefert cos( φ) Spiegelmatrizen sind stets zu sich selbst invers Das ist klar aufgrund der geometrischen Bedeutung von Spiegelungen (zweimal spiegeln ergibt die Ausgangsfigur) Folglich gilt für jede Spiegelmatrix S: S S ( ) S T Beispiel 7: Vom Drehen zum Spiegeln In der Drehmatrix aus Beispiel 6 vertauscht man zweite und dritte Spalte und bekommt eine Spiegelung: S : - - - Berechnung der Inversen Die Inverse einer Matrix A kann man mit Hilfe des Gauß-Jordan-Algorithmus bestimmen (aber in der Praxis geht das nur für kleine Matrizen): Man wendet elementare Zeilenumformungen simultan auf A und E an Am Ende hat man A in E umgeformt und dann ist aus E die Inverse zu A geworden Das liegt daran daß jede elementare Zeilenumformung durch Multiplikation mit einer invertierbaren Matrix von links bewirkt wird Das Produkt all dieser Matrizen sei B Dann ist B A E also B A ( ) Es passiert relativ selten dass die Inverse einer ganzzahligen Matrix wieder ganzzahlig ist Beispiel 9: Eine ganzzahlige Matrix mit ganzzahliger Inverser 0 0 0 0 0 0 0 0 Subtraktion der dreifachen ersten Zeile von der zweiten Zeile:
0 0 0-5 - - 0 0 0 0 Addition der dreifachen dritten Zeile zur zweiten Zeile: Subtraktion der dritten Zeile von der ersten Zeile: 0 0 0 0-0 0 0 0 0 0-0 0-0 0 0 Subtraktion der zweifachen zweiten Zeile von der dritten Zeile: 0 0 0-0 0-0 0 6 - -5 Die rechts unten stehende Matrix ist also die Inverse von A Invertiert man sie nochmals kommt natürlich die ursprüngliche Matrix A heraus Probe: 0-0 0-0 0 0 6 - -5 0 0 0 Transponieren und Invertieren Die Transponierte einer invertierbaren Matrix A ist wieder invertierbar und die Inverse von A T ist die Transponierte von A ( ) Potenzen von Matrizen Man kann nun beliebige ganzzahlige Potenzen einer invertierbaren Matrix definieren Für positive Exponenten k und jede quadratische Matrix A ist A k natürlich das k-fache Produkt von A mit sich selbst und für negative Exponenten setzt man k A k ( ) A ( k ) : ( A ( ) ) ( ) sofern A invertiebar ist Es gelten dann die üblichen Potenzregeln wie zb A ( + ) k l A k A l und k l ( A k ) l A ( )
Beispiel 0: Potenzen einer Drehmatrix A cos( φ) sin( φ) sin( φ ) cos( φ) beschreibt die ebene Drehung um den Winkel φ also A k cos( k φ) sin( k φ) sin( k φ ) cos( k φ) die Drehung um den k-fachen Winkel Speziell ist beispielsweise A cos( φ) sin( φ) sin( φ ) cos( φ) A A cos( φ) sin( φ) cos( φ ) sin( φ) cos( φ ) sin( φ ) cos( φ) sin( φ) woraus man sofort die Additonstheoreme für den doppelten Winkel ablesen kann Beispiel : Potenzen einer Bandmatrix bei der in der Hauptdiagonalen und in der ersten Diagonalen darüber Einsen stehen 0 0 0 0 0 0 0 0 0 0 B 0 0 0 B 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 B 0 0 0 0 0 0 0 0 0 0 0 4 6 4 5 0 0 5 0 4 6 4 0 5 0 0 B 4 0 0 4 6 B 5 0 0 5 0 0 0 0 4 0 0 0 5 0 0 0 0 0 0 0 0 In den Zeilen wie in den Spalten dieser Matrizen stehen die Binomialkoeffizienten n! B ( n k) k! ( n k )! Sie ergeben sich bei der Entwicklung des Polynoms n ( + x) n B ( n k ) x k k 0 Pascalsches Dreieck Jede Zahl in diesem Dreieck außer den Einsen ist die Summe der zwei darüber stehenden Zahlen 4 6 4 5 0 0 5