7 Matrizen über R und C

Ähnliche Dokumente
7 Matrizen über R und C

7 Matrizen über R und C

9 Matrizen über R und C

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

3 Matrizen und Lineare Gleichungssysteme

$Id: det.tex,v /01/13 14:27:14 hk Exp $ 8.2 Definition und Grundeigenschaften der Determinante D 2. oder A = D r

1 Matrizenrechnung zweiter Teil

8.2 Invertierbare Matrizen

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

Matrizen, Determinanten, lineare Gleichungssysteme

$Id: det.tex,v /01/08 13:59:24 hk Exp $ A = 1 3

5.2 Rechnen mit Matrizen

$Id: det.tex,v /12/19 13:21:08 hk Exp $ A = 1 3

37 Gauß-Algorithmus und lineare Gleichungssysteme

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

Determinanten. I. Permutationen

3 Determinanten, Eigenwerte, Normalformen

8.2 Invertierbare Matrizen

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

9.2 Invertierbare Matrizen

Determinanten. I. Permutationen

Basiswissen Matrizen

Ferienkurs Mathematik für Physiker I Skript Teil 3 ( )

6.2 Rechnen mit Matrizen

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

LINEARE ALGEBRA II. FÜR PHYSIKER

3 Lineare Gleichungssysteme

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

4. Übungsblatt zur Mathematik II für Inf, WInf

5.2 Rechnen mit Matrizen

Lineare Algebra I (WS 12/13)

Dreiecksmatrizen. Die Treppennormalform

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

3 Systeme linearer Gleichungen

Lineare Algebra und analytische Geometrie I

Lineare Algebra I (WS 12/13)

Lineare Algebra und analytische Geometrie I

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

35 Matrixschreibweise für lineare Abbildungen

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist

1 Transponieren, Diagonal- und Dreiecksmatrizen

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Copyright, Page 1 of 5 Die Determinante

8 Lineare Gleichungssysteme

3 Matrizenrechnung. 3. November

5 Eigenwerte und die Jordansche Normalform

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Lösbarkeit linearer Gleichungssysteme

2.3 Lineare Abbildungen und Matrizen

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Numerik für Informatiker und Bioinformatiker. Daniel Weiß

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

Cramersche Regel. Satz 2.26

Chr.Nelius : Lineare Algebra II (SS 2005) 1. Wir wollen hier eine Beschreibung des Gauß-Algorithmus mit Hilfe der sog. Elementarmatrizen vornehmen.

Invertierbarkeit von Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

, c d. f + e + d. ae + bg a f + bh. ce + dg c f + dh

Lineare Algebra I 3. Tutorium Inverse Matrizen und Gruppen

Kap 5: Rang, Koordinatentransformationen

Matrixoperationen. Einige spezielle Matrizen: Nullmatrix: n-te Einheitsmatrix: E n := 0 d. TU Dresden, WS 2013/14 Mathematik für Informatiker Folie 1

36 2 Lineare Algebra

ANHANG A. Matrizen. 1. Die Definition von Matrizen

Kapitel 16. Invertierbare Matrizen

Tutorium: Diskrete Mathematik. Matrizen

6 Determinanten Pink: Lineare Algebra HS 2014 Seite 66

5 Lineare Gleichungssysteme und Determinanten

Quadratische Matrizen

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A =

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri

4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT

Lineare Gleichungssysteme und Matrizen

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Zwölfte Woche, Rang(f) := dim Bild(f).

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Lineare Algebra 1. Roger Burkhardt

5 Die Allgemeine Lineare Gruppe

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

05. Lineare Gleichungssysteme

7 Determinanten. f i : Mat n n (K) K. j=1 ( 1)i+j a ij D(A ij )

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

4 Matrizenrechnung. Beide Operationen geschehen also koeffizientenweise. Daher übertragen sich die Rechenregeln von K(m n, k).

3.9 Elementarmatrizen

A = ( a 1,..., a n ) ii) Zwei Matrizen sind gleich, wenn die Einträge an den gleichen Positionen übereinstimmen. so heißt die n n Matrix

2.5 Gauß-Jordan-Verfahren

Determinanten - II. Falls n = 1, gibt es offenbar nur die identische Permutation, und für eine 1 1 Matrix A = (a) gilt det A = a.

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Lineare Gleichungssysteme: direkte Verfahren

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

Lineare Gleichungssysteme

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Transkript:

$Id: matrix.tex,v. 0/0/0 5:7:7 hk Exp $ 7 Matrizen über R und C 7. Inverse Matrizen und reguläre lineare Gleichungssysteme In der letzten Sitzung hatten wir eine quadratische Matrix A regulär oder invertierbar genannt wenn es eine Matrix B derselben Größe mit AB = BA = gibt. Die Matrix B war dann eindeutig bestimmt und hieß die zu A inverse Matrix, notiert als A. Wir wenden den Begriff einer invertierbaren Matrix nun auf lineare Gleichungssysteme an. Definition 7.7: Ein quadratisches lineares Gleichungssystem a x + a x + + a n x n = b a x + a x + + a n x n = b.... a m x + a m x + + a mn x n = b m heißt regulär, wenn seine Koeffizientenmatrix regulär, also invertierbar, ist. Die regulären linearen Gleichungssystem lassen sich immer eindeutig lösen, und zwar durch Multiplikation mit der inversen Matrix. Satz 7.5 (Reguläre lineare Gleichungssysteme) Ein reguläres lineares Gleichungssystem mit Koeffizientenmatrix A und rechter Seite b hat genau eine Lösung, nämlich x = A b. Beweis: Wegen A (A b) = (AA )b = b = b ist A b eine Lösung des linearen Gleichungssystems Ax = b. Ist umgekehrt x K n mit Ax = b, so gilt auch x = x = (A A)x = A (Ax) = A b. Um diesen Satz zur Lösung linearer Gleichungssysteme zu verwenden, benötigen wir noch eine Methode die Inverse einer gegebenen Matrix tatsächlich zu berechnen, sofern sie überhaupt existiert. Wir wollen mit zwei häufig auftretenden Spezialfällen beginnen. Zunächst betrachten wir sogenannte Diagonalmatrizen, das sind quadratische Matrizen, die außerhalb der Hauptdiagonale keine von Null verschiedenen Einträge haben, also beispielsweise die Einheitsmatrizen E n. Diese Diagonalmatrizen multiplizieren sich auf sehr einfache Weise λ λ n µ µ n 6- = λ µ λ n µ n.

Sind also insbesondere λ,..., λ n K\{0} alle von Null verschieden, so ist die zugehörige Diagonalmatrix invertierbar mit λ λ n = λ Ein weiterer gut überschaubarer Fall sind Matrizen. Wir haben nämlich die folgende einfache Rechnung ( ) ( ) ( ) a b d b ad bc 0 = = ad bc, c d c a 0 ad bc und ebenso ergibt sich dieses Ergebnis, wenn wir die beiden Matrizen in der anderen Reihenfolge multiplizieren. Damit haben wir die Äquivalenz ( ) a b ist invertierbar ad bc 0, c d λ n. und in diesem Fall ist ( a b c d ) = ad bc ( d b c a ). Wir besprechen nun den Algorithmus zur Berechnung der Inversen einer allgemeinen n n Matrix, und wollen diesen zugleich am Beispiel der Matrix A = 0 0 durchführen. Dies ist gerade die Koeffizientenmatrix unseres Beispiels zum Gaußschen Eliminationsverfahren in 6. Das Verfahren zum Invertieren dieser Matrix läuft in zwei Schritten ab.. Zunächst schreibe A und die Einheitsmatrix nebeneinander, also im Beispiel 0 0 0 0 Dann führe das Gaußsche Eliminationsverfahren für die linke Matrix (also für A) durch. Dabei verwende zusätzlich Zeilenumformungen vom Typ, also Multiplikation von Zeilen mit Konstanten 0, um den am weitesten links stehenden 6-

von Null verschiedenen Eintrag einer jeder Zeile auf Eins zu bringen. Wende dabei simultan genau dieselben Zeilenumformungen auf die rechte Matrix an. Tritt während der Elimination eine lange Stufe auf, so ist die Ausgangsmatrix A nicht invertierbar, und wir können das Verfahren abbrechen. Andernfalls ist die Matrix invertierbar. Wir führen diesen Schritt jetzt im Beispiel durch. Wir beginnen also wieder mit der ersten Zeile. In dieser steht ganz links bereits eine Eins, und wir bringen alle Einträge unterhalb dieser Eins auf Null 0 0 0 0 0 0 0 0 0 0 6 Dann müssen wir die zweite und die dritte Zeile vertauschen und die neue zweite Zeile anschließend durch teilen 0 0 0 0 0 0 6 0 0 0 0 6 Jetzt bringen wir die untenstehenden Einträge der zweiten Spalte auf Null. 0 0 0 0 6 Jetzt bringe die führende Zwei der dritten Zeile auf Eins 0 0 0 0 0 5 0 Schließlich bringe die linke Seite endgültig auf Stufenform 0 0 0 5 0 und teile die unterste Zeile anschließend durch Zwei 0 0 0 0 5 6-0 0 0 5 0 0 0 0 5 0 0 0 0 0 5 0 0 0 0 5

Damit ist Schritt Eins für dieses Beispiel beendet. Insbesondere hat sich herausgestellt, dass unsere Koeffizientenmatrix überhaupt invertierbar ist, da keine lange Stufe aufgetreten ist. Damit kommen wir zum zweiten Schritt.. Jetzt bringen wir analog zum Vorgehen bei der Gauß-Elimination, nur diesmal von unten nach oben und von rechts nach links gehend, in der linken Matrix alle Einträge außerhalb der Hauptdiagonale auf Null, und führen wieder simultan in der rechten Matrix dieselben Zeilenoperationen durch. Nachdem dies getan ist, steht auf der rechten Seite die gesuchte inverse Matrix. Schauen wir uns auch diesen Schritt im Beispiel an. Wir müssen also zuerst die Spalte ganz rechts betrachten 0 0 0 0 5 0 5 0 0 5 Nun wird auch die dritte Spalte oben auf Null gebracht 0 5 0 0 5 0 0 0 5 Als letzter Schritt wird nun die zweite Spalte bearbeitet 0 8 8 0 0 5 8 8 0 8 8 0 5 Als inverse Matrix haben wir in diesem Beispiel damit 0 8 8 = 0 = 8 0 0 5 Wollen wir jetzt beispielsweise erneut das lineare Gleichungssystem x + y u + v = x + y + u v = x + y + u v = x u = 0 6-0 0 6 6 0 6.

aus 6 lösen, so können wir die eben berechnete inverse Matrix verwenden, um direkt die Lösung des Gleichungssystem zu erhalten 0 8 x = 8 0 6 6 = 8 8 =, 0 6 0 0 5 und dies ist wieder die Lösung, die wir schon damals berechnet hatten. Man sollte allerdings die praktische Bedeutung inverser Matrizen für das Lösen linearer Gleichungssysteme nicht überschätzen. Unser Verfahren zur Berechnung von A erfordert ungefähr den drei- bis vierfachen Aufwand im Vergleich zum Gaußschen Eliminationsverfahren. Selbst wenn mehrere Gleichungssysteme mit derselben Koeffizientenmatrix zu lösen sind, ist das Eliminationsverfahren effektiver, da der Hauptteil des Algorithmus sich nur auf die Koeffizientenmatrix bezieht, und wir die Wirkung auf die rechte Seite einmal bestimmen und dann immer wieder anwenden können. Eine rechnerisch bequeme Realisierung dieser Idee ist die sogenannte LR-Zerlegung die wir im nächsten Abschnitt besprechen werden. 7.5 Das Gaußsche Eliminationsverfahren in Matrixform In diesem Abschnitt wollen wir eine alternative Beschreibung des Gaußschen Eliminationsverfahrens in Termen der Matrixmultiplikation angeben. Dies wird uns insbesondere erlauben den Algorithmus zur Matrixinversion aus dem vorigen Abschnitt begründen zu können. Bei dieser Gelegenheit werden wir auch einige spezielle Matrixtypen einführen. Wir beginnen mit den sogenannten Basismatrizen. Gegeben seien n, m N mit n, m und K {R, C}. Für alle k m, l n bezeichne e mn kl K m n die m n-matrix deren Eintrag in der l-ten Spalte der k-ten Zeile gleich Eins ist und deren andere Einträge allesamt Null sind. Meist ist die Größe m n der betrachteten Matrizen aus dem jeweiligen Kontext heraus klar, und dann schreiben wir nur e kl für die Basismatrizen. Um die Komponenten einer Basismatrix hinzuschreiben ist das sogenannte Kronecker-δ hilfreich, für je zwei mathematische Objekte i, j schreiben wir {, i = j, δ ij := 0. i j. Unsere Basismatrix wird mit dieser Notation zu e kl = e mn kl = (δ ik δ jl ) i m, j n. Jede m n-matrix A über K läßt sich offenbar als Summe der Basismatrizen schreiben, wir haben A = A kl e kl. k m l n 6-5

Sei jetzt zusätzlich d N mit d und sei A K n d. Wir wollen das Produkt e mn kl A berechnen. Dieses ist eine m d-matrix und alle Zeilen mit eventueller Ausnahme der k-ten Zeile bestehen nur aus Nullen. Bei der Berechnung der k-ten Zeile von e mn kl A tritt bei jedem Eintrag nur ein einziger Summand auf der zu der Eins in der l-ten Spalte der k-ten Zeile von e mn kl gehört, d.h. die k-te Zeile von e mn kl A ist die l-te Zeile von A, und somit 0 0.. 0 0 e mn d kl A = A l A ld = A lj e md kj. 0 j=.. 0 0 Wenden wir diese Formel speziell für p n, q d auf die Basismatrix e nd pq an, so ergibt sich die Formel für die Multiplikation der Basismatrizen e mn kl e nd pq = δ lp e md kq. Multiplizieren wir die Basismatrix dagegen von der anderen Seite heran, so vertauschen sich die Rollen von Zeilen und Spalten und wir erhalten für jede d m-matrix A über K 0 0 A k 0 0 Ae mn d kl =..... = A ik e dn il 0 0 A dk 0 0 i= d.h. Ae mn kl ist eine d n-matrix und in der l-ten Spalte von Ae mn kl steht die k-te Spalte von A während alle anderen Spalten nur aus Nullen bestehen. Jetzt ist es leicht die elementaren Zeilenumformungen zu beschreiben. Seien wieder n, m N mit n, m, K {R, C} und A eine m n-matrix über K. Seien weiter k, l m mit k l und λ K gegeben. Dann definieren wir die Elementarmatrix und wegen E m kl (λ) = E kl (λ) := + λe mm kl E m kl (λ)a = ( + λe mm kl K m m )A = A + λe mm A ist Ekl m (λ)a die Matrix die aus A durch Addition des λ-fachen der l-ten Zeile zur k-ten Zeile entsteht. Damit können die elementaren Zeilenumformungen dritter Art durch Multiplikation mit Elementarmatrizen von links bewirkt werden. Die Elementarmatrizen stellen sich jetzt als invertierbar heraus. Lemma 7.6 (Grundeigenschaften der Elementarmatrizen) Seien n N mit n, K {R, C}, k, l n mit k l. (a) Für alle λ, µ K gilt Ekl n (λ)en kl (µ) = En kl (λ + µ). 6-6 kl

(b) Für jedes λ K ist E n kl (λ) invertierbar mit En kl (λ) = E n kl ( λ). Beweis: (a) Die Matrix Ekl n (λ)en kl (µ) ensteht aus En kl (µ) durch Addition des λ-fachen der l-ten Zeile zur k-ten Zeile und wegen k l ist dies genau Ekl n (λ + µ). (b) Dies ist klar nach (a). Sind dagegen k, l n mit k l, so entsteht AEkl n (λ) analog zur obigen Überlegung aus A indem das λ-fache der k-ten Spalte von A zur l-ten Spalte von A addiert wird. Meist ist die Größe n n der gerade betrachteten Elemenatarmatrizen aus dem Zusammenhang heraus klar, und dann schreiben wir wieder nur E kl (λ) für diese. Damit haben wir die elementaren Zeilenumformungen dritter Art durch die Multiplikation mit einer geeigneten Matrix beschrieben und wir wollen dies nun auch für die beiden anderen Typen elementarer Zeilenumformungen tun, d.h. für die Multiplikation einer Zeile mit einer von Null verschiedenen Konstante und das Vertauschen zweier Zeilen. Ersteres ist dabei einfach. Angenommen wir haben n, m N mit n, m, K {R, C} und eine m n-matrix A über K. Weiter seien λ,..., λ m K und betrachte die Diagonalmatrix D(λ,..., λ m ) := λ... λ m = m i= λ i e mm ii K m m. Dann ist D(λ,..., λ m )A die Matrix deren k-te Zeile für k m genau das λ k - fache der k-ten Zeile von A ist. Analog ist für µ,..., µ n K dann AD(µ,..., µ n ) die Matrix deren k-te Spalte für k n das µ k -fache der k-ten Spalte von A ist. Sind also insbesondere k m sowie c K\{0} und entsteht A aus A durch Multiplikation der k-ten Zeile mit c, so können wir λ l := für l m mit l k und λ k := c setzen und erhalten die invertierbare Diagonalmatrix D := D(λ,..., λ m ) mit A = DA. Damit sind auch die elementaren Zeilenumformungen zweiter Art durch Multiplikation mit einer invertierbaren m m-matrix von links gegeben. Die elementaren Zeilenumformungen erster Art, also das Vertauschen zweier Zeilen, gehen wir etwas allgemeiner als zunächst nötig an, und untersuchen beliebige Umordnungen der Zeilen einer Matrix. Seien also n, m N mit n, m, K {R, C} und A eine m n-matrix über K. Weiter seien k,..., k m m gegeben. Dann betrachten wir die m m-matrix P = P (k,..., k m ) := m i= e mm ik i, d.h. P ist die m m-matrix in deren i-ter Zeile für i m stets genau ein von Null verschiedener Eintrag ist und zwar eine Eins in der k i -ten Spalte. Dann ist P A = m i= 6-7 e mm ik i A,

d.h. P A ist die m n-matrix in deren i-ter Zeile für i m gerade die k i -te Zeile von A steht. Eine entsprechende Konstruktion funktioniert auch wieder für Spalten anstelle von Zeilen, sind l,..., l n n und bilden wir die Matrix Q = Q(l,..., l n ) := n j= enn l j j so ist AQ die m n-matrix in deren j-ten Spalte für j n die l j-te Spalte von A steht. Die Matrix P A ist im Allgemeinen keine Umordnung der Zeilen von A da unter den Indizes k,..., k m nicht alle möglichen Werte zwischen und m vorkommen müssen dafür aber andere Werte mehrfach auftreten können. Eine Umordnung liegt vor wenn unter den k,..., k m jede Zahl zwischen und m genau einmal vorkommt, wenn also die Abbildung π : {,..., m} {,..., m}; i k i bijektiv ist. Man spricht dann von einer Permutation der Indizes,..., m und definiert: Definition 7.8 (Permutationen und Permutationsmatrizen) Sei n N mit n. Eine Permutation der Menge {,..., n} ist eine bijektive Abbildung π : {,..., n} {,..., n} und die Menge all dieser Permutationen werde als S n bezeichnet. Ist π S n so heißt die n n-matrix n T π := e k,π(k) = (δ π(k),l ) k,l n k= eine Permutationsmatrix, oder genauer die Permutationsmatrix zur Permutation π. Ist π S n so ist T π also diejenige n n-matrix in deren k-ter Zeile für k n eine Eins in der π(k)-ten Spalte und sonst nur Nullen stehen, in der obigen Notation ist also T π = P (π(),..., π(n)). Andererseits können wir auch sagen das für l n in der l-ten Spalte von T π nur Nullen stehen bis auf eine Eins in der k-ten Zeile wobei l = π(k) beziehungsweise k = π (l) ist, d.h. es gilt auch T π = Q(π (),..., π (n)). Ist π = id {,,n} die identische Permutation, so ist T π = die n n-einheitsmatrix. Wir schauen uns ein kleines Beispiel einer Permutationsmatrix an. Sei etwa n = und betrachte die Umordnung π der Zahlen,,, zu,,,, also die Abbildung π : {,,, } {,,, } gegeben durch π() =, π() =, π() = und π() =. Die zugehörige Permutationsmatrix hat dann Einsen in der π() = -ten Spalte der ersten Zeile, der π() = -ten Spalte der zweiten Zeile, der π() = -ten Spalte der dritten Zeile und der π() = -ten Spalte der vierten Zeile, also T π = 0 0 0 0 Seien wieder n, m N mit n, m, K {R, C} und A eine m n-matrix über K. Ist dann π S m so ist T π A = P (π(),..., π(m))a die m n-matrix in deren k-ter Zeile 6-8.

für k m genau die π(k)-te Zeile von A steht, also die Matrix die aus A durch Umordnung der Zeilen gemäß der Permutation π entsteht. Ist dagegen π S n so ist AT π = AQ(π (),..., π (n)) die m n-matrix in deren l-ter Spalte für l n die π (l)-te Spalte von A steht, d.h. AT π entsteht aus A durch Umsortieren der Spalten gemäß der inversen Permutation π. Lemma 7.7 (Grundeigenschaften von Permutationsmatrizen) Sei n N mit n. (a) Sind π, η S n, so ist auch die Hintereinanderausführung πη := π η S n und es gilt T πη = T η T π. (b) Ist π S n so ist T π invertierbar mit T π = T π. Beweis: (a) Sei k n. In der k-ten Zeile von T η T π steht dann die η(k)-te Zeile von T π. In dieser gibt es weiter genau einen von Null verschiedenen Eintrag und zwar eine Eins in der π(η(k))-ten Spalte. Dies zeigt T η T π = T πη. (b) Dies ist klar nach (a). Damit können wir nun auch die elementaren Zeilenumformungen erster Art, also das Vertauschen zweier Zeilen, behandeln. Seien n, m N mit n, m, K {R, C} und A eine m n-matrix über K. Weiter seien k, l m mit k l und bezeichne A die Matrix die aus A durch Vertauschen der k-ten mit der l-ten Zeile entsteht. Sei τ S m die Permutation die k und l miteinander vertauscht, also l, i = k, τ : {,..., m} {,..., m}; i k, i = l, i, i k, l, eine sogenannte Transposition. Dann ist A = T τ A. Insgesamt haben wir jetzt eingesehen, dass wann immer A aus A durch eine elementare Zeilenumformung entsteht auch eine invertierbare m m-matrix B über K mit A = BA existiert, und zwar je nachdem welchen Typ die Zeilenumformung hat eine Elementarmatrix, eine Diagonalmatrix oder eine Permutationsmatrix. Insbesondere folgt mit Lemma.(c,f) auch A ist invertierbar A ist invertierbar. Damit sind wir jetzt bereit die Korrektheit des Algorithmus zum Berechnen der inversen Matrix nachzuweisen. Seien also n N mit n, K {R, C} und eine n n-matrix A gegeben. In der ersten Phase des Algorithmus wird die Matrix A durch elementare Zeilenumformungen in eine Matrix A in Stufenform transformiert. Tritt dabei eine lange Stufe auf, so hatten wir behauptet das die Matrix A nicht invertierbar ist. In der Tat, wenn eine lange Stufe auftritt, wobei wir eine eventuell auftretende führende Nullspalte auch als solche zählen, so ist die unterste Zeile der Matrix A gleich Null. 6-9

Ist also e := e n n der Zeilenvektor mit n Nullen vorne und einer Eins hinten, so ist ea = 0 und e 0. Wäre A jetzt invertierbar, so gäbe es eine n n-matrix B über K mit A B = und wir erhalten den Widerspruch 0 = (ea )B = e(a B) = e. Also ist A nicht invertierbar und somit ist auch A nicht invertierbar. Nun nehme an das in der ersten Phase keine lange Stufe auftritt. Dann wird A durch weitere elementare Zeilenumformungen in die n n-einheitsmatrix überführt. Jede der in den beiden Phasen verwendeten elementaren Zeilenumformungen wird durch Multiplikation mit einer invertierbaren n n-matrix von links bewirkt, wir haben also invertierbare n n-matrizen B,..., B r mit B r B A =. Dieselben elementaren Zeilenumformungen werden dabei auf die Einheitsmatrix angewandt, am Ende des Algorithmus steht also die Matrix B := B r B auf der rechten Seite. Nach Lemma.(c) ist B invertierbar und da auch BA = invertierbar ist, ist A nach Lemma.(f) invertierbar. Damit folgt schließlich B = B(AA ) = (BA)A = A, und alles ist gezeigt. Nachdem wir die einzelnen elementaren Zeilenumformungen als Multiplikation mit geeigneten Matrizen von links interpretiert haben, wollen wir jetzt auch eine Darstellung des Gaußschen Eliminationsverfahrens in der Sprache der Matrizenmultiplikation angeben. Dies führt uns, bis auf kleines Detail, auf eine Zerlegung der Koeffizientenmatrix in ein Produkt zweier sogenannter Dreiecksmatrizen. Diese Dreiecksmatrizen werden dabei wie folgt definiert: Definition 7.9 (Obere und untere Dreiecksmatrizen) Seien n, m N mit n, m, K {R, C} und A eine m n-matrix über K. Dann heißt A (a) eine obere Dreiecksmatrix wenn A ij = 0 für alle i m, j n mit j < i gilt, und (b) eine untere Dreiecksmatrix wenn A ij = 0 für alle i m, j n mit j > i gilt. Hauptsächlich werden diese beiden Begriffe für quadratische Matrizen verwendet, und dann haben obere beziehungsweise untere Dreiecksmatrizen die Form a a n a. beziehungsweise., a nn a n a nn was auch die Namensgebung Dreiecksmatrix erklärt. Wir stellen jetzt einige einfache Tatsachen über Dreiecksmatrizen zusammen. Lemma 7.8 (Grundeigenschaften oberer und unterer Dreiecksmatrizen) Seien K {R, C} und n, m, p N mit n, m, p. 6-0

(a) Eine Matrix A K m n ist genau dann eine obere beziehungsweise untere Dreiecksmatrix wenn die Transponierte A t eine untere beziehungsweise obere Dreiecksmatrix ist. (b) Seien A, B K m n zwei obere beziehungsweise zwei untere Dreiecksmatrizen über K. Dann sind auch A + B und λa für jedes λ K eine obere beziehungsweise untere Dreiecksmatrix. (c) Sind A K m n, B K n p obere beziehungsweise untere Dreiecksmatrizen so ist auch das Produkt AB eine obere beziehungsweise untere Dreiecksmatrix. (d) Ist A K n n eine obere beziehungsweise untere Dreiecksmatrix, so ist A genau dann invertierbar wenn A ii 0 für alle i n gilt und in diesem Fall ist auch die Inverse A eine obere beziehungsweise untere Dreiecksmatrix. Beweis: (a) Sei A K m n eine obere Dreiecksmatrix. Dann ist A t K n m und sind i n, j m mit j > i, so ist A t ij = A ji = 0, d.h. A t ist eine untere Dreiecksmatrix. Ist A K m n eine untere Dreiecksmatrix so folgt analog das A t eine obere Dreiecksmatrix ist. Mit Lemma.(a) folgen dann auch die beiden Implikationen von rechts nach links. (b) Dies ist klar. (c) Seien A K m n, B K n p zwei obere Dreiecksmatrizen. Dann ist AB eine m p- Matrix über K. Seien i m und j n mit j < i. Gäbe es dann einen Index k n mit A ik B kj 0, so hätten wir auch A ik 0 und B kj 0 also i k und k j und dann müsste auch i j sein. Dieser Widerspruch zeigt A ik B kj = 0 für alle k n und damit ist auch (AB) ij = n k= A ikb kj = 0. Somit ist AB wieder eine obere Dreiecksmatrix. Sind A K m n, B K n p untere Dreiecksmatrizen, so sind A t, B t nach (a) zwei obere Dreiecksmatrizen und nach Lemma.(d) und der bereits bewiesenen Aussage ist auch (AB) t = B t A t eine obere Dreiecksmatrix, d.h. nach (a) ist AB eine untere Dreiecksmatrix. (d) Sei A K n n eine obere Dreiecksmatrix. Hat A auf der Hauptdiagonalen einen Nulleintrag, gibt es also ein i n mit A ii = 0, so wählen wir i mit dieser Eigenschaft minimal und dann tritt bei Durchführung des Algorithmus zur Matrixinversion in der ersten Phase auf der i-ten Zeile eine lange Stufe auf, die Matrix A ist dann also nicht invertierbar. Andernfalls stehen auf der Hauptdiagonalen von A nur von Null verschiedene Einträge, es gilt also A ii 0 für alle i n. In der ersten Phase des Algorithmus zur Matrixinversion werden dann nur elementare Zeilenumformungen zweiter Art angewandt, genauer wird die i-te Zeile von A für jedes i n durch A ii geteilt. Da die erste Phase damit auf keine langen Stufen führt ist die Matrix A invertierbar und nach Durchführung der ersten Phase steht auf der rechten Seite eine Diagonalmatrix. Bei der Durchführung der zweiten Phase werden jetzt zu jeder Zeile auf der rechten Seite nur Vielfache weiter unten stehender Zeilen addiert, es entsteht also rechts eine obere Dreiecksmatrix. Damit ist A wieder eine obere Dreiecksmatrix. 6-

Damit ist die Aussage für obere Dreiecksmatrizen bewiesen und wir nehmen nun an, dass A K n n eine untere Dreiecksmatrix ist. Nach Lemma.(e) ist A genau dann invertierbar wenn A t invertierbar ist und in diesem Fall gilt (A ) t = (A t ). Nach (a) ist A t eine obere Dreiecksmatrix, und wie bereits gezeigt ist A t genau dann invertierbar wenn A ii = A t ii 0 für jedes i n gilt. Ist dies der Fall, so wissen wir auch schon das (A ) t = (A t ) eine obere Dreiecksmatrix ist und nach (a) ist A damit eine untere Dreiecksmatrix. Damit ist alles bereit das Gaußsche Eliminationsverfahren in Matrixform zu interpretieren. Seien n, m N mit n, m, K {R, C} und eine m n-matrix A K m n über K gegeben. Wir führen mit der Matrix A das Gaußsche Eliminationsverfahren in seiner strikten Form durch, verzichten also auf elementare Zeilenumformungen zweiter Art. Der Einfachheit halber nehmen wir erst einmal an das keine Zeilenvertauschungen notwendig sind, dass wir also ausschließlich elementare Zeilenumformungen dritter Art benutzen, also Vielfache weiter oben stehender Zeilen zu weiter unten stehenden Zeilen addieren. Die m Zeilen von A werden der Reihe nach abgearbeitet, und für i < m werde bei der Bearbeitung der i-ten Zeile für i < j m das l ij -fache der i-ten Zeile von der j-ten Zeile abgezogen. Dabei lassen wir l ij = 0 zu, dies bedeutet dann nur das der entsprechende Rechenschritt nicht auftritt. Am Ende entsteht dann eine m n-matrix R in Stufenform. Wir wissen bereits das elementare Zeilenumformungen dritter Art durch Multiplikation mit m m-elementarmatrizen von links bewirkt werden, es gilt also R = E m,m ( l m,m )E m,m ( l m,m )E m,m ( l m,m )... E m, ( l m ) E, ( l )A. Für jedes i < m fassen wir die Elementarmatrizen die zur Bearbeitung der i-ten Zeile dienen zusammen, setzen also und erhalten L i := E mi ( l im )... E i+,i ( l i,i+ ), R = L m... L A. Elementarmatrizen sind invertierbar und damit ist für jedes i < m nach Lemma.(c) auch die Matrix L i invertierbar mit L i = E i+,i (l i,i+ )... E mi (l im ) = 6- l i,i+. l im

wobei sich die Matrixform aus der Beschreibung der Multiplikation mit Elementarmatrizen ergibt. Multiplizieren wir also die Gleichung für R von links mit L m,..., L, so wird schließlich A = L L m R = LR mit L = L L m. Das die Matrix L definierende Produkt läßt sich nun leicht berechnen, schreiben wir die Faktoren L,..., L m wieder als Produkte von Elementarmatrizen, so entsteht L indem wir mit der m m-einheitsmatrix starten und die entsprechenden elementaren Zeilenumformungen anwenden, damit ist L die untere Dreiecksmatrix l L =., l m l m,m und die Matrix R ist wie gesagt in Stufenform und damit insbesondere eine obere Dreiecksmatrix, d.h. wir haben A als das Produkt einer unteren m m-dreiecksmatrix und einer oberen m n-dreiecksmatrix geschrieben. Man bezeichnet diese Produktzerlegung als eine LR-Zerlegung der Matrix A. Wir wollen uns das Verfahren zur Berechnung der LR-Zerlegung einmal an einem Beispiel anschauen und betrachten die -Matrix A = 0 5 7 Im ersten Schritt bearbeiten wir die erste Zeile mit 0 5 7. 5 0 l = 0 l = Für die Bearbeitung der zweiten Zeile ist dann keine Zeilenvertauschung nötig und wir erhalten 5 0 0 5 7 l = 0 Die LR-Zerlegung von A ergibt sich als A = LR mit L = 0 und R = 0 5. 7 6-