4 Invertierbare Matrizen

Ähnliche Dokumente
3 Systeme linearer Gleichungen

Nichtlineare Gleichungssysteme

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

7 Determinanten. f i : Mat n n (K) K. j=1 ( 1)i+j a ij D(A ij )

( ) Lineare Gleichungssysteme

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

9. Woche: Elliptische Kurven - Gruppenarithmetik. 9. Woche: Elliptische Kurven - Gruppenarithmetik 187/ 238

Zusammenfassung und Beispiellösungen. zur Linearen Algebra

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen.

Serie 8: Fakultativer Online-Test

Newton-Verfahren für ein Skalarfunktion

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

Serie 10: Inverse Matrix und Determinante

oder A = (a ij ), A =

Serie 8: Online-Test

Eigenwerte (Teschl/Teschl 14.2)

Ausgewählte Lösungen zu den Übungsblättern 4-5

Inverse und implizite Funktionen

7 Determinanten. D ist alternierend g.d.w. für alle i j gilt:

Lineare Algebra 2013 Lösungen für Test und Zusatzfragen

18.2 Implizit definierte Funktionen

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17

4 Differenzierbarkeit

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

1 Matrizenrechnung zweiter Teil

Mathematik für Anwender. Testklausur mit Lösungen

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10

A wird in diesem Fall invertierbar oder regulär genannt. Beispiel

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Umkehrfunktion. g (y) = f (x) 1, x = g(y), Umkehrfunktion 1-1

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Analysis 2. f(x) = x2 6x + 8 x 2 6x + 5 a) Ermitteln Sie den Definitionsbereich der Funktion f. Weisen Sie nach, dass gilt:

Übungen zum Ferienkurs Analysis II

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )

Lineare Algebra. 9. Übungsstunde. Steven Battilana.

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Lösbarkeit linearer Gleichungssysteme

Leseprobe. Hans-Jochen Bartsch. Taschenbuch mathematischer Formeln für Ingenieure und Naturwissenschaftler. ISBN (Buch):

Lineare Algebra und Numerische Mathematik für D-BAUG

Extremwerte von Funktionen mehrerer reeller Variabler

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei die Matrix

Vorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient

3 Matrizen und Lineare Gleichungssysteme

Numerische Ableitung

Tutorium: Analysis und lineare Algebra

Kapitel 9: Lineare Gleichungssysteme

3 Invertierbare Matrizen Die Inverse einer (2 2)-Matrix Eigenschaften invertierbarer Matrizen... 18

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Kapitel 7. Differentialrechnung. Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56

a ij i - te Gleichung (Zeile), i = 1,2,3,..., m

Inverse und implizite Funktionen

Matrizen und Determinanten, Aufgaben

Vektorräume und Rang einer Matrix

Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

5 Numerische Iterationsverfahren

Numerik für Informatiker und Bioinformatiker. Daniel Weiß

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Rang und Inverses einer Matrix

5.4 Basis, Lineare Abhängigkeit

cos(x)cos(2x)cos(4x) cos(2 n x) = sin(2n+1 x) 2 n+1 sin(x) = sin(2n+2 x) 2 n+2 sin(x).

Die Treppennormalform

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

TECHNISCHE UNIVERSITÄT MÜNCHEN. Einführung in die Matrizenrechnung

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Die Treppennormalform

Musterlösung der Ferienserie 13

2 a 6. a 4 a Wir führen nun den Gauÿalgorithmus durch: 2 a a 2 4a 2 4a a a 2 2a 0 2 a

8 Extremwerte reellwertiger Funktionen

8.2 Invertierbare Matrizen

Serie 8: Online-Test

Nichtlineare Gleichungssysteme

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Analysis II 14. Übungsblatt

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur SoSe 2010 Hamburg,

9.2 Invertierbare Matrizen

Implizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem

Analysis Aufgabengruppe 1.. Der Graph von f wird mit G f bezeichnet.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Aufgabe Summe Note Punkte

4x 1 + 2x 2 + 3x 3 = 1, x 2 + ax 3 = 1, ax 2 + x 3 = a 1. 0 a 1 1 Wir führen nun den Gauÿalgorithmus durch:

Lösung Semesterendprüfung

Basiswissen Matrizen

3.6 Eigenwerte und Eigenvektoren

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

1 Umkehrfunktionen und implizite Funktionen

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Zulassungsprüfung in Mathematik

Probe-Klausur 1 Mathematik f. Bau-Ing + Chem. Modul1

Transkript:

4 Invertierbare Matrizen In diesem Kapitel beassen wir uns mit der Frage, welche Matrizen eine multiplikative Inverse haben und wie wir im gegebenen Fall diese Inverse bestimmen können. Die Matrizen sind alle über demselben Körper K. Deinition 4.1: Sei A eine m n Matrix. Eine n m Matrix X heisst Linksinverse von A wenn gilt XA = I n. X heisst Rechtsinverse von A wenn gilt AX = I m. Beispiel 4.2: (i) Die Matrix 1 1 4 3 3 4 0 0 hat unendlich viele Linksinverse der Form ( 3 1 0 ) a 3 0 1 b aber keine Rechtsinverse. (ii) Die Matrix 1 2 1 1 hat die eindeutig bestimmte Links- und Rechtsinverse 1 2 1 1 Satz 4.3: Sei A eine m n Matrix. Dann gilt: (i) A hat eine Rechtsinverse g.d.w. rang(a) = m; (ii) A hat eine Linksinverse g.d.w. rang(a) = n. Satz 4.4: Hat die Matrix A sowohl eine Linksinverse X als auch eine Rechtsinverse Y, dann gilt: (i) A ist quadratisch; (ii) X = Y. Wenn die Matrix A also sowohl eine Linksinverse als auch eine Rechtsinverse hat, so ist diese eindeutig bestimmt. Satz 4.5: Sei A eine quadratische n n Matrix. FAÄ: (i) A hat eine Linksinverse; (ii) A hat eine Rechtsinverse; (iii) rang(a) = n; 61

(iv) die Hermite-Form von A ist I n ; (v) A ist ein Produkt von Elementarmatrizen. Deinition 4.6: Aus den obigen Sätzen sehen wir, dass eine einseitige Inverse einer quadratischen Matrix A automatisch eine beidseitige Inverse ist. Wir sprechen also nur von der Inversen von A und schreiben diese als A 1. Die Inverse ist, wenn sie existiert, eindeutig (Satz 4.4). Hat die quadratische Matrix A eine Inverse, so heisst A invertierbar bzw. regulär. Hat A keine Inverse, so heisst A auch singulär. Korollar zu Satz 4.5: Sei A eine quadratische Matrix. (i) Ist A invertierbar, dann ist auch A 1 invertierbar. Weiters gilt (A 1 ) 1 = A. (ii) Jedes Produkt von Elementarmatrizen ist invertierbar. B ist also zeilenäquivalent zu A g.d.w. es eine invertierbare Matrix E gibt sodass B = EA. Aus Satz 4.5 können wir soort eine Methode herleiten um die Invertierbarkeit der quadratischen n n Matrix A zu entscheiden, und gegebenenalls A 1 zu berechnen. Dazu gehen wir von der Matrix A I n aus und wenden elementare Zeilenoperationen an, um den linken Teil in I n zu transormieren. Ist das nicht möglich, so ist A nicht invertierbar. Gelingt es aber, so haben wir im rechten Teil automatisch die Inverse A 1 stehen. Dieser Prozess sieht wie olgt aus: A I n E 1 A E 1 E 2 E 1 A E 2 E 1. In jedem Schritt dieses Prozesses haben wir also Matrizen der Form S Q = E i E 1 A E i E 1 vorliegen, ür welche gilt QA = S. Ist A invertierbar, so erreichen wir schliesslich die Endkoniguration I n E p E 1, sodass E p E 1 A = I n, also A 1 = E p E 1. Beispiel 4.7: Wir wollen den oben beschriebenen Prozess anwenden au die Matrix 1 2 3 A = 1 3 4. 1 4 4 62

Dabei erhalten wir die olgenden Konigurationen: 1 3 4 0 1 0 1 4 4 0 0 1 0 1 1 1 1 0 0 2 1 1 0 1 0 1 1 1 1 0 0 0 1 1 2 1 0 1 0 0 1 1 0 0 1 1 2 1 1 2 0 4 6 3 0 1 0 0 1 1 0 0 1 1 2 1 1 0 0 4 4 1 0 1 0 0 1 1 0 0 1 1 2 1 Die Matrix A ist also invertierbar, und die Inverse ist 4 4 1 0 1 1. 1 2 1 In Maple 9.5 können wir die Inverse wie olgt berechnen: > with(linearalgebra): > A:=Matrix([[1,2,3],[1,3,4],[1,4,4]]); 1 2 3 A := 1 3 4 1 4 4 > B:=MatrixInverse(A); 4 4 1 B := 0 1 1 1 2 1 Sind die beiden n n Matrizen A und B invertierbar, so ist i.a. die Summe A + B nicht invertierbar. Das sieht man etwa am Beispiel A = I n, B = I n. Das Produkt AB ist aber sehr wohl invertierbar. Satz 4.8: Seien A und B n n Matrizen. Sind sowohl A als auch B invertierbar, dann ist auch AB invertierbar und es gilt (AB) 1 = B 1 A 1. 63

Korollar: Ist A invertierbar, dann ist auch A m invertierbar ür jede natürliche Zahl m (man beachte, dass A 0 = I n ). Weiters gilt (A m ) 1 = (A 1 ) m. Satz 4.9: Ist A invertierbar, dann ist auch die Transponierte A T gilt (A T ) 1 = (A 1 ) T. invertierbar. Weiters Wir erinnern daran, dass die n n Matrix A orthogonal ist, wenn gilt AA T = I n = A T A. Aus Satz 4.5 sehen wir, dass nur eine dieser Gleichungen notwendig ist. Eine orthogonale Matrix ist also eine invertierbare Matrix deren Inverse die Transponierte ist. Satz 4.10: Sei A x = b ein SLG von n Gleichungen in n Variablen. A ist also eine n n Matrix, und b ein Spaltenvektor der Länge n. Ist A invertierbar, so ist A 1 b der eindeutig bestimmte Lösungsvektor des Gleichungssystems. Beispiel 4.11: Wir betrachten das SLG aus Beispiel 3.1 und 3.39. > with(linearalgebra): > A := Matrix([[0,1,2],[1,-2,1],[0,3,-4]]); 0 1 2 A := 1 2 1 0 3 4 > b := <1,0,23>; > B := MatrixInverse(A); B := 1 1 1 2 2 1 0 5 5 3 0 1 10 10 > B.b; 12 5 2 Beispiel 4.12: Eine wichtige Anwendung inden inverse Matrizen im mehrdimensionalen Newton-Verahren zur Approximation von Nullstellen von Funktionen. Im (eindimensionalen) Newton-Verahren geht es darum, zu einer einmal stetig dierenzierbaren reellen Funktion, also : R R C 1 (R), 64

eine Nullstelle x R approximativ zu inden, also (x) = 0. Dazu startet man in der Nähe der Nullstelle etwa bei x (0), und bestimmt eine Folge von Approximationswerten x (0), x (1), x (2),.... Um den jeweils nächsten Approximationswert x (n+1) zu bestimmen, betrachtet man die Tangente an bei x (n) : t(x) = (x (n) ) + (x (n) ) (x x (n) ), und schneidet diese mit der x-achse. x (n+1) ist dieser Schnittpunkt: x (n+1) := x (n) (x(n) ) (x (n) ). In der Analysis beweist man, dass dieses Verahren lokal konvergiert, d.h. wenn der Startpunkt x (0) genügend nahe an einer Nullstelle liegt, so wird tatsächlich diese Nullstelle approximiert als Limes der Folge ( x (n)). Verahren zur Wurzelberechnung (etwa 2) n N sind Spezialälle dieses Newtonschen Näherungsverahrens. Im mehrdimensionalen Newton-Verahren betrachtet man nun eine Funktion : R n R n x 1 1 (x 1,..., x n ).., n (x 1,..., x n ) x n wobei alle Komponenten i dierenzierbar sind nach allen Variablen, und die partiellen Ableitungen / x i stetig sind. Man startet nun wiederum in der Nähe einer Nullstelle, etwa mit x (0). Die weiteren Näherungswerte werden bestimmt als Dabei ist x (n+1) := x (n) J 1 (x (n) ) (x (n) ). J (x) := 1 x 1.... n x 1... die Jakobi-Matrix von. Das mehrdimensionale Newton-Verahren unktioniert also, wenn die Jakobi-Matrix invertierbar ist. Wir demonstrieren das am Beispiel 1 x n. n x n : ( R 2 ) ( R 2 ) x xy + 2x. y y 2 + y + x Für eine Nullstelle (x, y) T muss gelten y 2 + y + x = x(y + 1) = 0; daraus sieht man leicht, dass etwa (0, 1) T eine Nullstelle ist. Wir wollen sehen, wie wir diese Nullstelle mittels des Newton-Verahrens approximieren können. y + 2 x J (x, y) =, 1 2y + 1 65

J 1 (x, y) = Wir ühren 2 Näherungsschritte durch: 0, 5 x (0) := 0, 8 x (1) x (2) (x (0) ) = 0, 60 0, 34 = x (0) J 1 (x (0) ) (x (0) ) = = x (1) J 1 (x (1) ) (x (1) ) = 1 2y + 1 x 2y 2 + 5y x + 2 1 y + 2 0, 0655737705 0, 9573770495 0, 06836871807 (x (1) ) = 0, 0247675359 0, 002625108412 0, 9991162739 0, 002627428289 (x (2) ) = 0, 001742163312 Diese Berechnungen lassen sich in Maple 9.5 wie olgt durchühren: > with(linearalgebra): > 1:=x*y+2*x; 2:=yˆ2+y+x; 1 := xy + 2x 2 := y 2 + y + x > J := Matrix([[di(1,x),di(1,y)], [di(2,x),di(2,y)]]); [ ] y + 2 x J := 1 2y + 1. > Jinv := MatrixInverse(J); [ 2y+1 Jinv := 1 x y+2 ] > x01:= 0.5; x02:=-0.8; x01 := 0.5 x02 := 0.8 > x01:=subs({x=x01,y=x02},1); x02:=subs({x=x01,y=x02},2); x01 := 0.60 x02 := 0.34 > Jinv0 := subs({x=x01,y=x02},jinv); [ ] 0.4918032787 0.4098360656 Jinv0 := 0.8196721311 0.9836065574 66

> x11 := x01 - (Jinv0[1,1]*x01 + Jinv0[1,2]*x02); x12 := x02 - (Jinv0[2,1]*x01 + Jinv0[2,2]*x02); x11 := 0.0655737705 x12 := 0.9573770495 > x11:=subs({x=x11,y=x12},1); x12:=subs({x=x11,y=x12},2); x11 := 0.06836871807 x12 := 0.0247675359 > Jinv1 := subs({x=x11,y=x12},jinv); [ ] 0.8974183211 0.06433106241 Jinv1 := 0.9810487016 1.022863891 > x21 := x11 - (Jinv1[1,1]*x11 + Jinv1[1,2]*x12); x22 := x12 - (Jinv1[2,1]*x11 + Jinv1[2,2]*x12); x21 := 0.002625108412 x22 := 0.9991162739 > x21:=subs({x=x21,y=x22},1); x22:=subs({x=x21,y=x22},2); x21 := 0.002627428289 x22 := 0.001742163312 Wir sehen also, dass bereits nach 2 Näherungsschritten die Nullstelle ziemlich gut approximiert wird. 67