4.4. Rang und Inversion einer Matrix

Ähnliche Dokumente
Lösbarkeit linearer Gleichungssysteme

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Kapitel 16. Invertierbare Matrizen

Matrizen und Determinanten, Aufgaben

3 Matrizenrechnung. 3. November

Serie 8: Online-Test

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Ökonometrische Analyse

Tutorium Mathematik II, M Lösungen

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

10.2 Linearkombinationen

Lineare Algebra I für Mathematiker Lösungen

5.4 Basis, Lineare Abhängigkeit

Lineare Algebra und Numerische Mathematik für D-BAUG

Eigenwerte (Teschl/Teschl 14.2)

Serie 8: Fakultativer Online-Test

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Lineare Gleichungssysteme

Hilfsblätter Lineare Algebra

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

8.2 Invertierbare Matrizen

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

Zeilenstufenform. Wir beweisen nun den schon früher angekündigten Satz.

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

9.2 Invertierbare Matrizen

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra und analytische Geometrie I

37 Gauß-Algorithmus und lineare Gleichungssysteme

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Zusammenfassung und Beispiellösungen. zur Linearen Algebra

5.4 Hauptachsentransformation

Serie 10: Inverse Matrix und Determinante

Matrizen, Determinanten, lineare Gleichungssysteme

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Übungen zur Vorlesung Lineare Algebra

Das inhomogene System. A x = b

Mathematik I für MB und ME

5 Die Allgemeine Lineare Gruppe

5 Zur Geometrie euklidischer Bewegungen. Eine Bewegung eines euklidischen Raumes wird bezüglich eines kartesischen Koordinatensystems

Kapitel 3 Lineare Algebra

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

8 Lineare Abbildungen und Matrizen

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

35 Matrixschreibweise für lineare Abbildungen

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

9. Übungsblatt zur Mathematik I für Maschinenbau

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung

Eine Affinität α eines euklidischen Raumes heißt eine Bewegung, wenn sie Abstände (und damit auch Winkel) erhält, wenn also für alle Punkte X, Y gilt:

Diagonalisierbarkeit symmetrischer Matrizen

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

β 1 x :=., und b :=. K n β m

8.2 Invertierbare Matrizen

Tutorium: Analysis und Lineare Algebra

Basiswissen Matrizen

Lineare Algebra und analytische Geometrie I

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

Tutorium: Diskrete Mathematik. Matrizen

5.2 Rechnen mit Matrizen

Lineare Gleichungssysteme und Matrizen

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

2.3.4 Drehungen in drei Dimensionen

4 Lineare Abbildungen und Matrizen

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Lösung Serie 10: Elementare Zeilenumformungen & Elementarmatrizen, Rang & Inverse einer Matrix

Lineare Algebra II 8. Übungsblatt

(1) In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt.

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Mathematik II Frühjahrssemester 2013

HM II Tutorium 5. Lucas Kunz. 22. Mai 2018

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri

Prüfung Lineare Algebra 2

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

4. Übungsblatt zur Mathematik II für Inf, WInf

Probeklausur zu Mathematik 2 für Informatik

9 Lineare Gleichungssysteme

Transkript:

44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert ist klar (denn es bleibt ja sogar der Zeilenraum der selbe) Schwerer zu zeigen ist daß der Rang auch bei elementaren Spaltenumformungen erhalten bleibt (wir glauben das an dieser Stelle den Mathematikern) Der Rang ist nichts anderes als die Zeilenzahl der umgeformten Matrix nach Schritt des Gauß-Jordan-Verfahrens und kann daher auf diesem Weg bestimmt werden Nach Konstruktion ist der Rang auch die Zahl der positiven Diagonalemente nach Schritt 4 Andererseits ist die Zahl der negativen Diagonalelemente die Dimension des Lösungsraumes für das homogene Gleichungssystem A x 0 Der Kern einer Matrix (bzw der durch sie dargestellten linearen Abbildung) ist der Lösungsraum des zugehörigen homogenen Gleichunsgsystems Wir haben damit folgende wichtigen Gleichungen: (R) Rang A Dimension des Zeilenraumes Dimension des Spaltenraumes Rang A T (R) Rang A + dim Kern A Spaltenzahl von A Kennt man also den Rang so auch die Dimension des Lösungsraumes und die des Bildraumes Die Summe der beiden Dimensionen ist die Spaltenzahl Das Ergebnis des Gauß-Jordan-Verfahrens bis einschließlich Schritt (und damit die Bestimmung einer Basis des Zeilenraumes und insbesondere des Ranges) liefert MAPLE in einem Schritt nach Eingabe des Befehls gaussjord(a) Beispiel : Eine Basis des Zeilenraums der x5-matrix 0-0 0-0 0 0 9 Nach Schritt des Gauß-Jordan-Verfahrens gelangt man zu folgender Zeilenbasis: 0 0 - - 0 0 0 0 0 0 4 Offenbar ist der Rang einer mxn-matrix höchstens so groß wie das Minimum von m und n Die Wahrscheinlichkeit daß er echt kleiner als dieses Minimum wird ist Null - aber es passiert eben doch in Spezialfällen Zum Beispiel hat jede Matrix der Form a T a für einen beliebigen von 0 verschiedenen Zeilenvektor den Rang (denn alle Spalten sind Vielfache von a T )

Die Rang-Ungleichung Rang( AB ) min ( Rang( A ) Rang( B) ) gilt für beliebige Matrizen A und B deren Produkt definiert ist Der Test zufälliger Matrizen zeigt dass die Rang-Ungleichung fast immer eine Gleichung ist! Beispiel : Rang von Produktmatrizen A 79 56-85 -55-7 B 49 6-5 97 50 57-59 AB -8675 087 - -59-604 BA -670 46 7 488 0-780 -8858-5059 Rang( A ) Rang( B) Rang( AB) Rang( BA) Wenn für zwei Matrizen A und B sowohl das Produkt AB als auch BA definiert ist (wann ist das der Fall?) so braucht der Rang von AB dennoch nicht mit dem Rang von BA übereinzustimmen Beispiel : Produkte mit verschiedenen Rängen 0 0 0 0 0 A 0 0 B 0 0 0 0 0 0 0 0 0 AB 0 0 0 BA 0 0 0 Rang( A ) Rang( B) Rang( AB) Rang( BA) Ohne die Lösungen zu berechnen testet man mit Hilfe des Ranges die Lösbarkeit eines linearen Gleichungssystems Das Gleichungssystem A x b ist genau dann lösbar wenn der Rang der geränderten Matrix (Ab) mit dem Rang von A übereinstimmt Denn das bedeutet gerade daß der Spaltenraum von A die gleiche Dimension wie der Spaltenraum von (Ab) hat also mit diesem bereits zusammenfällt - und das passiert dann und nur dann wenn b eine Linearkombination der Spalten von A also in der Form A x b darstellbar ist Beispiel 4: Ein unlösbares Gleichungssystem 45-8 77 A -9 9 b 66 Rang( A) Rang ( A b ) 4-6 54 Ein Gleichungssystem mit einer x-matrix A ist nur sehr selten lösbar weil A höchstens Rang haben kann die geränderte Matrix aber fast immer den Rang hat!

Invertierbare Matrizen Eine quadratische Matrix A heißt invertierbar falls es eine Matrix B mit A B B A E gibt Im nächsten Satz stellen wir eine ganze Reihe von Kriterien für die Invertierbarkeit einer Matrix zusammen Invertierbarkeitskriterien Die folgenden Aussagen über eine Matrix A aus K ( n x n ) sind äquivalent: (a) A ist invertierbar (a) Es gibt eine Matrix B mit A B E (a) Es gibt eine Matrix C mit C A E (b) Die durch A dargestellte lineare Abbildung ist bijektiv (b) Die durch A dargestellte lineare Abbildung ist surjektiv (b) Die durch A dargestellte lineare Abbildung ist injektiv (c) A x (c) A x (c) A x b hat für jedes b aus K n genau eine Lösung b hat für jedes b aus K n mindestens eine Lösung b hat für jedes b aus K n höchstens eine Lösung (d) Die Spalten von A bilden eine Basis des K n (d) Die Spalten von A bilden ein Erzeugendensystem des K n (d) Die Spalten von A sind linear unabhängig (e) A x 0 hat nur die Lösung x 0 (e) A läßt sich durch elementare Zeilenumformungen in die Einheitsmatrix umformen (e) Rang A n In jeder dieser Aussagen kann man A durch A T ersetzen Beweisschema: Die nachfolgenden Implikationen sind sämtlich ohne Mühe nachzuprüfen (a) ---> (b) ---> (c) ---> (d) ---> (e) / / / / / (a) ---> (b) ---> (c) ---> (d) ---> (e) \ \ \ \ \ (a) ---> (b) ---> (c) ---> (d) ---> (e) Auch von (e) bzw (e) zurück nach (a) kommt man relativ leicht Etwas trickreich ist der Schritt von (a) nach (a) Daß eine linksinverse Matrix mit einer rechtsinversen übereinstimmen muß sieht man so: A B E C A > B E B C A B C E C

Aufgrund des obigen Satzes gibt es zu einer invertierbaren Matrix A genau eine Matrix deren Multiplikation mit A (von links oder rechts) die Einheitsmatrix ergibt Man nennt diese Matrix die Inverse von A und bezeichnet sie mit A ( ) Sind A und B invertierbare nxn-matrizen so auch AB und es gilt ( A B ) ( ) B ( ) A ( ) Denn aufgrund des Assoziativgesetzes haben wir A B B ( ) A ( ) A E A ( ) A A ( ) E Beispiel 5: Diagonalmatrizen Jede Diagonalmatrix mit von Null verschiedenen Diagonalelementen ist invertierbar und die Inverse ist wieder eine Diagonalmatrix: Ist A von der Form und gilt a j b j so hat B A ( ) die Gestalt a 0 0 0 a 0 0 0 a b 0 0 0 b 0 0 0 b Orthogonale Matrizen sind dadurch charakterisiert daß ihre Spalten (oder Zeilen) eine Orthonormalbasis bilden Jede orthogonale Matrix A ist wegen A T A E A A T invertierbar und die Inverse ist die Transponierte Die orthogonalen x-matrizen bzw die durch sie dargestellten linearen Abbildungen werden vollständig durch den Hauptsatz am Ende von Kapitel charakterisiert: Drehmatrizen und Spiegelmatrizen Eine orthogonale x-matrix A beschreibt genau dann eine Drehung oder Spiegelung wenn es einen Einheitsvektor u gibt mit A u u Ist A dabei symmetrisch so handelt es sich um eine Spiegelung und u liegt in der Spiegelebene Ansonsten handelt es sich um eine Drehung und u erzeugt die Drehachse Alle anderen orthogonalen Matrizen beschreiben Drehspiegelungen sind also Produkte von Drehund Spiegelmatrizen

Spur und Drehwinkel Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente: Spur( A) n a j j j Bei einer Drehmatrix A berechnet sich der Cosinus des Drehwinkels φ nach der Formel Spur( A ) + cos( φ ) Denn wie wir früher gesehen haben gilt mit s sin( φ ) und c cos( φ ): A c + ( c) u ( c ) u u u s ( c) u u + u s ( c ) u u + u s c + ( c ) u ( c) u u u s ( c ) u u u s ( c ) u u + u s c + ( c ) u also Spur( A ) c + ( c ) ( + + ) u u u + c Beispiel 6: Achse und Drehwinkel einer Drehmatrix Die folgende Matrix ist orthogonal: - A : - - Probe: 0 0 A A T 0 0 0 0 Die Transponierte ist also die Inverse: A T - - - Für den Einheitsvektor u ( ) T /

ergibt sich A u u (Wenn man diesen "Eigenvektor" nicht errät kann man ihn durch Lösen des Gleichungssystems A u u finden; davon später mehr) Da A nicht symmetrisch ist muß es eine Drehmatrix sein In der Tat beschreibt A eine Drehung um die Achse R u und einen Winkel von 60 0 bzw π/ Denn die Spurformel liefert cos( φ) Spiegelmatrizen sind stets zu sich selbst invers Das ist klar aufgrund der geometrischen Bedeutung von Spiegelungen (zweimal spiegeln ergibt die Ausgangsfigur) Folglich gilt für jede Spiegelmatrix S: S S ( ) S T Beispiel 7: Vom Drehen zum Spiegeln In der Drehmatrix aus Beispiel 6 vertauscht man zweite und dritte Spalte und bekommt eine Spiegelung: S : - - - Berechnung der Inversen Die Inverse einer Matrix A kann man mit Hilfe des Gauß-Jordan-Algorithmus bestimmen (aber in der Praxis geht das nur für kleine Matrizen): Man wendet elementare Zeilenumformungen simultan auf A und E an Am Ende hat man A in E umgeformt und dann ist aus E die Inverse zu A geworden Das liegt daran daß jede elementare Zeilenumformung durch Multiplikation mit einer invertierbaren Matrix von links bewirkt wird Das Produkt all dieser Matrizen sei B Dann ist B A E also B A ( ) Es passiert relativ selten dass die Inverse einer ganzzahligen Matrix wieder ganzzahlig ist Beispiel 9: Eine ganzzahlige Matrix mit ganzzahliger Inverser 0 0 0 0 0 0 0 0 Subtraktion der dreifachen ersten Zeile von der zweiten Zeile:

0 0 0-5 - - 0 0 0 0 Addition der dreifachen dritten Zeile zur zweiten Zeile: Subtraktion der dritten Zeile von der ersten Zeile: 0 0 0 0-0 0 0 0 0 0-0 0-0 0 0 Subtraktion der zweifachen zweiten Zeile von der dritten Zeile: 0 0 0-0 0-0 0 6 - -5 Die rechts unten stehende Matrix ist also die Inverse von A Invertiert man sie nochmals kommt natürlich die ursprüngliche Matrix A heraus Probe: 0-0 0-0 0 0 6 - -5 0 0 0 Transponieren und Invertieren Die Transponierte einer invertierbaren Matrix A ist wieder invertierbar und die Inverse von A T ist die Transponierte von A ( ) Potenzen von Matrizen Man kann nun beliebige ganzzahlige Potenzen einer invertierbaren Matrix definieren Für positive Exponenten k und jede quadratische Matrix A ist A k natürlich das k-fache Produkt von A mit sich selbst und für negative Exponenten setzt man k A k ( ) A ( k ) : ( A ( ) ) ( ) sofern A invertiebar ist Es gelten dann die üblichen Potenzregeln wie zb A ( + ) k l A k A l und k l ( A k ) l A ( )

Beispiel 0: Potenzen einer Drehmatrix A cos( φ) sin( φ) sin( φ ) cos( φ) beschreibt die ebene Drehung um den Winkel φ also A k cos( k φ) sin( k φ) sin( k φ ) cos( k φ) die Drehung um den k-fachen Winkel Speziell ist beispielsweise A cos( φ) sin( φ) sin( φ ) cos( φ) A A cos( φ) sin( φ) cos( φ ) sin( φ) cos( φ ) sin( φ ) cos( φ) sin( φ) woraus man sofort die Additonstheoreme für den doppelten Winkel ablesen kann Beispiel : Potenzen einer Bandmatrix bei der in der Hauptdiagonalen und in der ersten Diagonalen darüber Einsen stehen 0 0 0 0 0 0 0 0 0 0 B 0 0 0 B 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 B 0 0 0 0 0 0 0 0 0 0 0 4 6 4 5 0 0 5 0 4 6 4 0 5 0 0 B 4 0 0 4 6 B 5 0 0 5 0 0 0 0 4 0 0 0 5 0 0 0 0 0 0 0 0 In den Zeilen wie in den Spalten dieser Matrizen stehen die Binomialkoeffizienten n! B ( n k) k! ( n k )! Sie ergeben sich bei der Entwicklung des Polynoms n ( + x) n B ( n k ) x k k 0 Pascalsches Dreieck Jede Zahl in diesem Dreieck außer den Einsen ist die Summe der zwei darüber stehenden Zahlen 4 6 4 5 0 0 5