Pseudoinverse Matrizen

Ähnliche Dokumente
K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

35 Matrixschreibweise für lineare Abbildungen

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

3 Lineare Algebra Vektorräume

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Kapitel 5 : Eigenwerte und Eigenvektoren

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Eigenwerte (Teschl/Teschl 14.2)

Berechnung der Determinante

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

37 Gauß-Algorithmus und lineare Gleichungssysteme

LINEARE ALGEBRA II. FÜR PHYSIKER

Ökonometrische Analyse

Lineare Algebra II 8. Übungsblatt

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

47 Singulärwertzerlegung

Spezielle Matrixformen

Übungen zum Ferienkurs Lineare Algebra WS 14/15

und Unterdeterminante

und Unterdeterminante

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Lineare Algebra: Determinanten und Eigenwerte

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

3 Matrizenrechnung. 3. November

Kapitel 3 Lineare Algebra

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

8 Lineare Abbildungen und Matrizen

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Lineare Algebra. Teil III. Inhaltsangabe

Diagonalisierbarkeit symmetrischer Matrizen

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Mathematik für Physiker, Informatiker und Ingenieure

Lineare Algebra II Lösungen der Klausur

Tutorium: Analysis und Lineare Algebra

10 Unitäre Vektorräume

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Ausgewählte Lösungen zu den Übungsblättern 4-5

Lineare Algebra und Numerische Mathematik für D-BAUG

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Eigenwerte und Diagonalisierung

6 Eigenwerte und Eigenvektoren

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

Lineare Algebra I - Prüfung Winter 2019

8.2 Invertierbare Matrizen

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

9.2 Invertierbare Matrizen

Aufgaben zu Kapitel 20

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

7 Lineare Abbildungen und Skalarprodukt

Probeklausur zu Mathematik 2 für Informatik

Sommer 2017 Musterlösung

Lineare Algebra und analytische Geometrie I

Matrizen, Determinanten, lineare Gleichungssysteme

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Proseminar Lineare Algebra II, SS 11. Blatt

1 Transponieren, Diagonal- und Dreiecksmatrizen

5 Lineare Algebra (Teil 3): Skalarprodukt

Transkript:

Miniaturen zur Einführung in die Mathematik Vertiefungen, Ergänzungen und zusätzliche interessante Aspekte für Hörsaalanleitungen oder schlicht als Lektüreangebot 09 Pseudoinverse Matrizen Moore-Penrose-Inverse Robert Labus, Universität Kassel, 09 Stand 7. März 09

Inhaltsverzeichnis Pseudoinverse Matrizen. Motivation und Definition von verallgemeinerten Inversen.................... Die Moore-Penrose-Inverse oder Pseudoinverse......................... Berechnung von Pseudoinversen für besondere Fälle.......................4 Pseudoinverse und Projektionen................................. 6.5 Anwendungen zur Pseudoinversen................................ 9 i

ii

Kapitel Pseudoinverse Matrizen. Motivation und Definition von verallgemeinerten Inversen Betrachten wir lineare Abbildungen wie z.b. Streckungen, Drehungen, Spiegelungen im R n oder Kombinationen solcher Abbildungen, dann stellt sich mitunter die Frage Gibt es Urbilder zu einem bestimmten Element der Zielmenge und wenn ja, gibt es genau ein Urbild oder gibt es meherere und wie lassen sie sich berechnen?. Die gerade genannten linearen Abbildungen sind typische Fälle von umkehrbaren linearen Abbildungen eines endlichdimensionalen Vektorraums in sich selbst, Beispiele für sogenannte bijektive Endomorphismen bzw. kurz Automorphismen. Und wegen der Bijektivität oder Umkehrbarkeit ist die gestellte Frage für solche Abbildungen leicht zu beantworten, es gibt für sie stets ein einseutig bestimmtes Urbild. Wie läßt sich erkennen, ob ein Endomorphismus f : V V eines endlichdimensionalen K-Vektorraums V bijektiv, also umkehrbar ist? Ist dim V = n für ein n N, dann entspricht der Abbildung f genau eine Matrix A f K n n. Die Abbildung f ist bijektiv, wenn die Determinante von A f ungleich Null ist. Die Frage nach dem Urbild hat somit die Antwort, dass es im Fall det(a f ) 0 ein Urbild gibt und zwar genau ein Urbild. Berechnen läßt sich das Urbild x mit dem linearen Gleichungssystem A f x = b Wegen det(a f ) 0 ist die Matrix A f regulär und besitzt eine inverse Matrix A. Mit dieser Inversen läßt f sich nun auch das Urbild x berechnen: A f x = b A f (A f (A f x) = A b (.) A f )x = A b Ix = A b f x = A b f f f

KAPITEL. PSEUDOINVERSE MATRIZEN Im Ergebnis bedeutet dies, dass für eine reguläre Matrix A K n n und jedes beliebige b K n gilt: A A b = b Insbesondere lassen sich für b der Reihe nach die Spalten der Matrix A einsetzen. Dies heißt dann zusammengefasst A A A = A (.) Was ist aber, wenn die Matrix A K n n nicht regulär sondern singulär ist, nicht den maximalen Rang hat? Dann ist das Bild der zugehörigen linearen Abbildung f ein echter Unterraum von V. Das heißt, dass einige Vektoren aus V gar kein Urbild besitzen und andere unendlich viele. Ähnliches gilt, wenn die Matrix nicht quadratisch und die zugehörige Abbildung kein Endomorphismus ist. Gibt es für diese Fälle von linearen Abbildungen f : V W, deren Matrizen singulär oder nicht quadratisch sind, etwas Ähnliches wie die inverse Matrix? Zum Beispiel eine Matrix, die mit b multipliziert wenigstens eine von unendlichen vielen Lösungen der Gleichung produziert oder im Fall der Unlösbarkeit wenigstens ein optimales Element x V für das f(x) z.b. den kürzesten Abstand von b hat? Kurz: Läßt sich der Begriff der Inversen einer Matrix auf beliebige Matrizen verallgemeinern? Die Antwort ist, das so etwas möglich ist. Aber es ist nicht nur auf eine einzige Art möglich. Die entscheidende Eigenschaft der Inversen, die wir für die Verallgemeinerung nutzen ist die Gleichung (.). Definition.. verallgemeinerte Inverse Für A K m n m,n N nennen wir eine Matrix B K n m eine verallgemeinerte Inverse, wenn sie der Gleichung A B A = A (.) genügt. Bemerkung.. () Im Fall m = n mit einer regulären Matrix A ist B = A die einzige verallgemeinerte Inverse. Beweis: Sei B eine verallgemeinerte Inverse, dann gilt A B A = A A A B A = A A B A = E B A A = E A B = A () Im Allgemeinen ist die verallgemeinerte Inverse nicht eindeutig bestimmt, wie folgendes Beispiel zeigt. 0 0 0 Für die singuläre Matrix A = erfüllen die Matrizen B 0 0 = und B 0 = die 0 Bedingung (.). Es gilt A B A = A und A B A = A. Daher sind sowohl B als auch B verallgemeinerte Inverse von A. Inhalt

.. DIE MOORE-PENROSE-INVERSE ODER PSEUDOINVERSE. Die Moore-Penrose-Inverse oder Pseudoinverse Wir werden in diesem Abschnitt die Bedingung (.) durch weitere Bedingungen ergänzen, die sicherstellen, dass es für jede beliebige A C m n genau eine verallgemeinerte Inverse A + mit diesen Zusatzbedingungen existiert. Zur Vorbereitung benötigen wir den Begriff der adjungierten Matrix und den Satz über die Singulärwertzerlegung. Definition.. adjungierte Matrix, hermitesche Matrix () Für A = ( a i,j ) K m n m,n N nennen wir die Matrix A K n m mit A = ( ) ( ) a i,j = aj,i die adjungierte Matrix zu A. (Der Querstrich bedeutet hier die konjugiert komplexe Zahl der übertrichenen Zahl.) () Eine quadratische Matrix heißt hermitesch, wenn sie mit ihrer Adjungierten übereinstimmt. A = A Bemerkung.4. Im Fall einer Matrix mit ausschließlich rein reellen Komponenten - stimmt die adjungierte Matrix mit der transponierten Matrix überein. - ist die Matrix genau dann hermitesch, wenn sie symmetrisch ist. Also für A = R m n gilt A = A und A = A A = A Beispiel: [ ] + i i Zur Matrix A = lautet die adjungierte Matrix i 5 i + i A = + i = i i 5 i 5 Satz.5. Rechenregeln für adjungierte Matrizen Für A K m n m,n N, B K n m und z C gilt: () (A B) = (B A () (za) = za () (A ) = A (4) (A ) = (A ) falls A regulär ist. Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Satz.6. Singulärwertzerlegung (SVD - singular value decomposition)und reduzierte Singulärwertzerlegung (RSVD) Zu einer beliebigen Matrix A C m n gibt es stets Matrizen U C m m,v C n n mit U U = E m bzw. V V = E n und eine Diagonalmatrix Σ R m n mit nichtnegativen Komponenten, für die gilt: A = U Σ V. (SVD) Daraus läßt sich für Rang A = r > 0 eine kompaktere reduzierte Singulärwertzerlegung (RSVD) gewinnen, die den Rang berücksichtigt und eine quadratische reguläre Diagonalmatrix Σ verwendet. Es gibt Matrizen U C m r,v C n r mit U U = E r bzw. V V = E r und eine Diagonalmatrix Σ R r r mit nichtnegativen Komponenten, für die gilt: A = U Σ V. (RSVD) Beispiel.7 Wir bestimmen die SVD der Matrix 0 A = 0 Die (m m)-matrix U bilden wir aus normierten Eigenvektoren der Matrix A; A und die (n n)-matrix V bilden wir aus normierten Eigenvektoren der Matrix A A. Die (m n)-matrix Σ enthält die Quadratwurzeln der entsprechenden Eigenwerte auf der Hauptdiagonalen. Berechnung von U und Σ: 0 A A 0 = = 0 0 Das charakteristische Polynom lautet p(λ) = det(a A λe) = ( λ) = λ 4λ + Somit haben wir die Eigenwerte λ =, λ = Damit erhalten wir die Matrix Σ = Die Bestimmung von normierten Eigenvektoren ergibt [ ] 0 0 0 0 u =, u = Inhalt 4

.. DIE MOORE-PENROSE-INVERSE ODER PSEUDOINVERSE Damit erhalten wir die Matrix U = Berechnung von V : 0 A 0 0 A = = 0 0 0 hat das charakteristische Polynom p(λ) = λ(λ )(λ ) und damit die Eigenwerte λ =, λ =, λ = 0. Die Bestimmung von normierten Eigenvektoren ergibt Damit erhalten wir die Matrix Es folgt v =, v = 0, v = 6 V = 0 6 [ ] A = 0 0 0 0 0 (SV D) [ ] [ ] = 0 (RSV D) 0 0 Satz und Definition.8. Moore-Penrose-Inverse, Pseudoinverse Ist K der Körper der reellen oder der komplexen Zahlen ( K = R oder K = C ) und sind m,n N zwei beliebige natürliche Zahlen, dann gibt es zu jeder Matrix A K m n genau eine Matrix P K n m mit den Eigenschaften () A P A = A () P A P = P () (A P) = A P (4) (P A) = P A Die vier Gleichungen ()-(4) werden Penrose-Gleichungen (oder auch Moore-Penrose-Bedingungen) genannt. Die eindeutig bestimmte Matrix P wird mit A + bezeichnet und Moore-Penrose-Inverse oder kurz Pseudoinverse genannt. Bemerkung.9. 5 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Wegen der Bedingung () ist eine Pseudoinverse stets auch eine verallgemeinerte Inverse. Damit ist die Existenz und Eindeutigkeit der Pseudoinversen zu einer regulären Matrix mit Bemerkung. schon bewiesen. Beweis: Zu zeigen ist hier zweierlei, erstens, dass es keine zwei verschiedenen Pseudoinversen zu einer Matrix geben kann (Eindeutigkeit) und zweitens, dass zu jeder Matrix mindestens eine Pseudoinverse gibt (Existenz). Zur Eindeutigkeit: Es seien P, P zwei Pseudoinverse zu einer Matrix A. Wir zeigen zunächst, dass A P = A P (.4) und P A = P A (.5) gilt. Nach der Penrose-Gleichung () gilt A = A P A. Damit folgt durch Multiplikation mit P von links P A = P A P A = (P A) (P A) nach (4) = [ (P A) (P A) ] nach Satz.5() = [ P (A P A) ] Assoziativität der Matrixmultiplikation = [P A] nach () = P A nach (4) Durch Multiplikation mit P von rechts folgt A P = A P A P = (A P ) (A P ) nach () = [ (A P ) (A P ) ] nach Satz.5() = [ (A P A) P ] Assoziativität der Matrixmultiplikation = (A P ) nach() = A P nach() Inhalt 6

.. DIE MOORE-PENROSE-INVERSE ODER PSEUDOINVERSE Mit diesem Ergebnis können wir nun zeigen, dass die beiden Pseudoinversen übereinstimmen müssen. P = P A P nach () = P (A P ) = P (A P ) nach (.4) = (P A) P = (P A) P nach (.5) = P A P = P nach () Zur Existenz: Wir verwenden hier die Singulärwertzerlegung von Matrizen A C m n, um ganz allgemein die Existenz von Pseudoinversen zu zeigen. Wir werden im Anschluß an den Beweis sehen, dass wir diese in vielen Fällen nicht benötigen, um die Pseudoinverse zu berechnen. Ist A eine (m n) Nullmatrix, dann hat die (m n) Nullmatrix P die gewünschten Eigenschaften. Ist Rang A = r > 0, dann existiert eine reduzierte Singulärwertzerlegung (RSVD) A = U Σ V. (RSV D) mit U C m r,v C n r mit U U = E r bzw. V V = E r und einer Diagonalmatrix Σ C r r. Die Matrix P = V Σ U mit U, V, Σ ist pseudoinvers zu A. Dies läßt sich durch Nachrechnen der 4 Penrose-Gleichungen überprüfen. Da die Pseudoinverse nach dem ersten Teil des Beweises eindeutig ist, folgt dass A + Nullmatatrix ist oder A + = V Σ U entweder eine mit U, V, Σ aus der RSVD zu A. Beispiel.0 Wir bestimmen die Pseudoinverse der Matrix 0 A = 0 Aus Beispiel.7 kennen wir die RSVD der Matrix A: [ A = 0 0 ] [ ] 0 (RSV D) 7 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Es folgt [ ] A + = [ ] [ 0 0 0 [ ] [ = = ] [ 0 0 0 0 0 0 == [ 0 0 0 = 0 6 = 4 = 6 4 Lemma.. Hat eine reelle (m n) Matrix A vollen Spaltenrang (alle Spalten sind linear unabhängig), dann ist A A regulär. Bei vollem Zeilenrang ist entsprechend A A regulär. Für komplexe Matrizen ist bei vollem Spaltenrang A A und bei vollem Zeilenrang A A regulär. Beweis: Da Spalten- und Zeilenrang durch transponieren bzw. adjungieren ineinander übergehen, brauchen wir die Aussage nur für den Spaltenrang zu zeigen. Die Spalten a,..., a n der Matrix A sind nach Voraussetzung linear unabhängig, d.h. die Gleichung A x = x a,..., x n a n = 0 hat nur die triviale Lösung x =... = x n = 0. Somit gilt Kern A = {0}. Wir zeigen jetzt, dass auch Kern A A = {0} gilt. Daraus folgt dann mit dem Rangsatz oder Dimensionssatz, dass A A regulär ist. ] ] ] Inhalt 8

.. DIE MOORE-PENROSE-INVERSE ODER PSEUDOINVERSE Sei x Kern A A also 0 = (A A)x, dann folgt durch Multiplikation mit x von links A x = 0 0 = x (A A) x = (x A ) (A x) = (A x) (A x) = A x, A x = A x x Kern A = {0} x = 0 Kern A A = {0} Ersetzen wir überall das Tranponieren durch Ajungieren, dann ergibt sich der Beweis für den komplexen Fall. Satz.. Rechenregeln für Pseudoinverse Für beliebiges A C m n gilt: () (A + ) + = A () (A A ) + = (A ) + A + () (λa) + = λ A+ für λ C 0 (4) Das Bilden der Pseudoinversen ist mit Transponieren, Konjugieren und Adjungieren vertauschbar: ) + (A = (A +) ( ) + (, A = A +), (A ) + = (A +) (5) Tychonov-Regularisierung lim δ 0 (A A + δe) A = A + = lim δ 0 A (A A + δe) Beweis: () Hat A die (RSVD) A = U Σ V, dann gilt A + = V Σ U und (A + ) + = U ( Σ ) V = U Σ V = A 9 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN () Hat A die (RSVD) A = U Σ V, dann gilt A = ( U Σ V ) = V Σ U = V Σ U Da Σ eine reelle Diagonalmatrix ist, stimmt sie mit Σ überein. A A = U Σ V V }{{} =E = U Σ Σ U = U Σ U (A A ) + = (U Σ U ) + Σ U = U ( Σ ) U (A ) + A + = (V Σ U ) + (U Σ V ) + = U Σ V V }{{} Σ U = U Σ Σ U ( ) = U Σ U Wegen Σ =diag(σ,...,σ r ) gilt Σ =diag( σ,... σ r ) und ( ) Σ = diag(,... ) = ( Σ ) σ σr Damit folgt (A A ) + = U ( Σ ) U = U ( Σ ) U = (A ) + A + ()...als Übung empfohlen (4)...als Übung empfohlen (5) Es sei A = U Σ V die SVD zu A, dann gilt analog zu Teil () A A = V Σ V Außerdem gilt δe = δv V = δv E V = V δ E V Inhalt 0

.. BERECHNUNG VON PSEUDOINVERSEN FÜR BESONDERE FÄLLE Damit erhalten wir A A + δe = V Σ V + V δ E V = V ( Σ + δ E) V σ + δ 0... 0 = V. V 0 0... σn + δ und damit (A A + δe) A = V = V V 0... 0 σ +δ. V V Σ U 0 0... σn +δ σ 0... 0 σ +δ. U 0 0... σ n σ n +δ σ 0... 0. U 0 0... σ n An Stellen mit σ k = 0 steht hier eine Null An Stellen mit σ k = 0 steht hier eine Null Damit haben wir = V Σ + U = A + gezeigt. Die zweite Grenzwertaussage folgt analog. lim δ 0 (A A + δe) A = A +. Berechnung von Pseudoinversen für besondere Fälle Diagonalmatrizen Wenn A eine Diagonalmatrix ist, dann ist auch A + eine Diagonalmatrix. Die Pseudoinverse entsteht aus A durch Ersetzen der Diagonalelemente a kk 0 durch ihren reziproken Wert. A = diag(a,..., a nn ) A + 0, wenn a kk = 0 = diag(â,..., â nn ) mit â kk = sonst. a kk, Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Matrizen mit vollem Spaltenrang (d.h. mit linear unabhängigen Spaltenvektoren) Nach Lemma. ist A A unter dieser Voraussetzung regulär und besitzt somit eine Inverse mit E n = ( ) ( ) ( ) A A A A = A A A }{{} A =A + Damit erhalten wir für Matrizen A C m n mit Rang A = n die Pseudoinverse A + = ( ) A A A (.6) Matrizen mit vollem Zeilenrang (d.h. mit linear unabhängigen Zeilenvektoren) In diesem Fall ist B := A eine Matrix mit vollem Spaltenrang und es gilt Durch Adjungieren folgt B + = ( B B) B. ( B +) ( ( ) ) ( = B B B = B ) ( ( ) ) B B und nach den Rechenregeln.5,. gilt Es folgt B = (A ) = A (B + ) = (B ) + = A + ( ( ) A + = B B B ) = = B = B Also gilt für Matrizen mit vollem Zeilenrang ( B ) ( ( ) ) B B ( ( B B) ) ( B B ) = A ( A A ) A + = A ( A A ) (.7) Inhalt

.. BERECHNUNG VON PSEUDOINVERSEN FÜR BESONDERE FÄLLE Matrizen, nicht diagonal und nicht mit maximalem Rang (d.h. (m n)-matrizen mit r = Rang A < min{m, n} und mindestens ein a ij 0 für i j Mit den bisherigen Hilfsmitteln bleibt hier die SVD bzw RSVD als Methode übrig. Für die SVD gilt: Die Singulärwerte, also die Diagonalelemente von Σ sind die Quadratwurzeln aus den Eigenwerten von A A. Die Spalten von U sind die normierten Eigenvektoren zu den Eigenwerten bezüglich A A. Die Spalten von V sind die normierten Eigenvektoren zu den Eigenwerten bezüglich A A. Beispiel. 7 0 0 () A = 0 0 0 0 0 0 0 Die Pseudoinverse ist A + 7 = 0 0 0 0 0 () A = Die Matrix hat nur eine Spalte. Diese ist vom Nullvektor verschieden und deshalb linear unabhängig. Die Matrix hat also vollen Spaltenrang. Daher gilt nach (.6) A + = ( A A ) A A A = = + 4 + 9 = 4 (A A ) = und daher 4 () A = Wegen A = A gilt A + = A + = 4 ( ) + ( ) A = A + = = 4 4 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN 0 0 (4) A 4 = 0 0 0 0 Hier bestimmen wir die Pseudoinverse über die SVD. A 4 A 0 0 0 4 6 0 4 = 0 0 0 = 6 0 0 0 0 0 0 0 0 0 0 Das charakteristische Polynom lautet p(λ) = det(a 4 λe) = λ(λ 6)(λ ) Somit haben wir die Eigenwerte λ = 6, λ =, λ = 0 Damit erhalten wir die Matrix 4 0 0 Σ = 0 0 0 0 0 Die Bestimmung von normierten Eigenvektoren ergibt v = 5, v = 0, v = 0 5 0 0 Damit erhalten wir die Matrix U = 0 0 5 0 0 5 A 0 0 0 6 0 4 A 4 = 0 0 0 = 6 4 0 0 0 0 0 0 0 0 0 0 hat die gleichen Eigenwerte. Die Bestimmung von normierten Eigenvektoren ergibt v = 5, v = 0, v = 0 5 0 0 Damit erhalten wir die Matrix V = 5 0 0 0 0 5 Inhalt 4

.. BERECHNUNG VON PSEUDOINVERSEN FÜR BESONDERE FÄLLE Es folgt A 4 = 0 4 0 0 0 5 0 0 0 5 0 (SV D) 0 0 5 0 0 0 0 0 5 = 4 0, 0 (RSV D) 5 0 5 0 0 0 Damit erhalten wir die Pseudoinverse A + 4 = 0 0 4 5 0 0 0 0 = 0 4 5 0 0 0 5 = 0 0 0 0 5 5 5 0 4 = 0 4 0 0 0 0 0 0 = 0 0 0 4 0 0 0 Wegen der [ speziellen ] Struktur dieser Matrix hätten wir hier alternativ auch zuerst die Pseudoinverse 0 von B = berechnen können. 5 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Alternative Berechnung von A 4 : B + = ( ) B B B B 0 6 B = = 0 6 4 det(b B) = 5 6 = 6 ( ) B 4 6 B = 6 6 B + = 4 6 6 6 0 = 0 4 [ = 6 8 0 8 Wenn wir jetzt die zuvor weggeschnittenen Nullen wieder anfügen, erhalten wir A + 4 = 0 0 0 4 0 0 0 ].4 Pseudoinverse und Projektionen Vorbemerkungen über Projektionen: Eine lineare Abbildung P : K m K m ist eine Projektion, wenn P P = P bzw A = A für die zugehörige Matrix A gilt. Ist A eine Projektionsmatrix, dann gilt: Zum Beweis: Zu (.8): Sei y Bild A, dann gibt es ein x K m mit y = A x. Bild A = Kern ( E A ) = Kern ( A E ) (.8) Kern A = Bild ( E A ) = Bild ( A E ) (.9) ( E A )y = ( E A )A x = A x A x = A x A x = 0 y Kern ( E A ) x Kern ( E A ) 0 = ( E A )x = x A x A x = x x Bild A Inhalt 6

Zu (.9): x Kern A ( E A )x = x A x = x 0 = x x Bild ( E A ) Sei y Bild ( E A ), dann gibt es ein x K m mit y = ( E A )x. A y = A( E A )x = ( A A )x = ( A A )x = 0 x = 0 y Kern A.4. PSEUDOINVERSE UND PROJEKTIONEN Eine Projektion ist orthogonal, wenn zusätzlich zur Projektionseigenschaft der Vektor x A x stets das Lot von x auf den Unterraum ist, auf den projiziert wird: Bild (E A) Bild A (.0) Aus.0 folgt mit der Gleichung (.9): Die Projektion mit der Matrix A ist genau dann orthogonal, wenn Kern A Bild A. (.) Für lineare Projektionen gibt es zwei Extremfälle: Die Projektion auf den gesamten Raum und die Projektion auf den Nullpunkt. Davon verschiedene Projektionen bezeichnen wir als echte Projektionen. Ist P eine echte Projektion, dann ist die zugehörige Matrix A weder regulär noch die Nullmatrix. Also sind sowohl Bild P = Bild A als auch Kern P = Kern A echte Unterräume des K m und verschieden vom Nullraum. Als Folgerung ergibt sich daraus, dass echte Projektionen genau zwei Eigenwerte haben. U 0 := Kern A {0} ist Eigenraum zum Eigenwert λ 0 = 0, denn für x Kern A gilt A x = 0 = 0 x = λ 0 x U := Bild A {0} ist Eigenraum zum Eigenwert λ = : Ist y Bild A dann gibt es ein x K m mit y = A x. A y = A(Ax) = (AA)x = A x = y = λ y Verschiedene Eigenräume haben nur den Nullvektor gemeinsam. Aus dem Dimensionssatz folgt dann, dass es keine weiteren Eigenräume und damit auch keine weiteren Eigenwerte geben kann. Ist die Matrix A reell und symmetrisch oder komplex und hermitesch, also A = A, dann gilt für alle x, y K m : und die Eigenräume sind paarweise orthogonal. A x, y = x, A y (.) 7 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Nach diesen Vorbemerkungen kommen wir nun zu Projektionen, die Pseudomatrizen verwenden. Satz.4. Für eine beliebige (m n) Matrix A gilt: Die Matrix B := A A + beschreibt eine orthogonale Projektion auf Bild A. Beweis: Wir zeigen zunächst, dass B die Matrix einer Projektion ist. B = {}}{ A A + A A + = A A + nach der Penrosebedingung () = B Damit ist B die Matrix einer Projektion. Der Unterraum auf den projiziert wird, ist Bild B. Als nächstes zeigen wir, dass durch B eine Projektion auf Bild A gegeben ist. Dazu müssen wir zeigen, dass Bild B mit Bild A übereinstimmt. Da B die Verkettung zweier linearer Abbildungen beschreibt, ist das Bild eine Teilmenge des Bildes der zuletzt anzuwendenden Matrix, d.h. Bild B Bild A Ist y ein beliebiges Element aus Bild A, dann gibt es ein x K m Penrosegleichung () B y = A A + y = A A + A x = A x = y mit y = A x. Es folgt mit der d.h. y Bild B für alle y Bild A. Also Bild A Bild B Damit ist die Gleichheit der Bilder bewiesen. Es bleibt noch zu zeigen, dass die Projektion orthogonal ist. Nach der Penrosegleichung () gilt: B = (A A + ) = A A + = B Damit folgt aus (.) für beliebige x, y K m (E AA + )x, AA + y = AA + (E AA + )x, y ( ) = AA + (AA + ) x, y ( = AA + AA +) x, y = 0 x, y = 0 (E AA + )x Bild AA + Damit haben wir nach (.0) die Orthogonalität gezeigt. Inhalt 8

.5. ANWENDUNGEN ZUR PSEUDOINVERSEN Durch Vertauschen der Rollen von A und A + und Verwendung der Rechenregeln. folgt das Korollar.5. Für eine beliebige (m n) Matrix A gilt: Die Matrix B := A + A beschreibt eine orthogonale Projektion auf Bild A +..5 Anwendungen zur Pseudoinversen Die Pseudoinverse kann erfolgreich verwendet werden, um lineare Gleichungssysteme A x = b zu lösen, deren Matrix nicht regulär ist. Bei homogenen Systemen kann stets die allgemeine Lösung ermittelt werden. Bei inhomogenen Systemen liefert x := A + b eine partikuläre Lösung, falls das LGS lösbar ist. Ist das LGS nicht lösbar, dann ist x := A + b eine optimale Näherungslösung, für die gilt { A } A x b = min x b x Cn, denn nach (.0) und Satz.4 ist A x b = A A + b b das Lot von b auf Bild A. x wird in diesem Fall als Minimum-Norm-Lösung bezeichnet. Im Detail: Satz.6. Für eine beliebige (m n) Matrix A gilt Kern A = Bild (E A + A) Das heißt, das das homogene LGS A x = 0 den Unterraum L hom = Bild (E A + A) als Lösungsraum besitzt. Mit anderen Worten: Ist s,..., s k eine maximale Auswahl von linear unabhängigen Spalten der Matrix E A + A, dann lautet die allgemeine Lösung des homogenen Systems A x = 0 x hom = t s +... + t k s k = k t ν s ν. ν= Beweis: Nach der Penrose-Gleichung () gilt A = AA + A A E = A A + A A E A A + A = 0 ( ) A E A + A = 0 Daraus folgt für alle t C n : 9 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN ( ) Somit ist Bild E A + A Kern A Andererseits gilt für x Kern A: Somit gilt Kern A Bild [ ( ) ] A E A + A t = 0 ( ) E A + A x = x A + Ax = x }{{} =0 ( ) E A + A Das heißt aber nichts anderes als Kern A = Bild ( ) E A + A Satz.7. Für das LGS A x = b mit einer beliebigen komplexe (m n) Matrix A und b C n gilt: Ist das LGS lösbar, also Rang A = Rang A b, dann ist x p = A + b eine partikuläre und x = A + b + x hom die allgemeine Lösung. Der affine Lösungsraum ist somit durch gegeben. L(b) = A + b + Bild Ist das LGS unlösbar, also Rang A < Rang A b, dann ist x = A + b eine Minimum-Norm-Lösung. ( ) E A + A Beweis: Im Fall eines lösbaren Systems ist lediglich zu zeigen, dass x p = A + b eine Lösung ist. Nach Voraussetzung gilt Rang A = Rang A b, also liegt b in Bild A. Damit existieren Skalare λ k C mit b = n λ k a k (.) k= Nach der Penrose-Gleichung () gilt A = AA + A ( = A A +) A = (A A +) a... a n [ ( = A A +) a... (A A +) ] a n Inhalt 0

Also bildet.5. ANWENDUNGEN ZUR PSEUDOINVERSEN ( A A +) die Spalten von A auf sich selbst ab. ( A A +) a k = a k k =,..., n Daraus folgt mit (.) : ( ) A x p = A A + b ( = A A +) b = (A A +) n λ k a k = = k= n λ k (A A +) a k k= n λ k a k = b k= Zum unlösbaren System: Wegen A x Bild A gilt für alle x C n : b b A x b, wenn b die orthogonale Projektion von b auf Bild A ist. Nach Satz.4 ist die orthogonale Projektion durch die Matrix A A + gegeben. Aus ( ) ( A x = A A + b = A A +) b = b folgt die Behauptung, dass x = A + b eine Minimum-Norm-Lösung ist. { A } A x b = min x b x Cn. Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Beispiel.8 Unterbestimmte lineare Gleichungssystem () Gesucht sind die Lösungen von x + y + z = 8 Hier ist A = und wir erhalten x p = A + 8 = 8 = 4 4 6 E A + A = E = E 4 6 = 0 6 4 4 4 6 9 6 5 Es folgt L = 4 + Span, 0 6 6 () Zu lösen ist A x = b mit A =, b = 0 Die Matrix A hat vollen Zeilenrang. Daher gilt A + = A (A A ) Mit A A = = 0 0 und (A A ) = folgt A + = = 0 0 0 E A + A = E 0 0 = 0 0 0 0 0 0 0 Inhalt

Diese Matrix hat den Spaltenrang und wir erhalten L hom = Kern A = Span 0 Eine partikuläre Lösung erhalten wir durch x p = A + b = 0 0 =.5. ANWENDUNGEN ZUR PSEUDOINVERSEN Die allgemeine Lösung lautet somit + t x = + t = t, 0 t C () Beispiel für ein komplexes System Zu lösen ist A x = b mit [ ] + i i A =, b = i + i Die Matrix A hat vollen Zeilenrang. Daher gilt Mit [ ] + i A A + i i = i = i i und (A A ) = folgt [ ] 4 4i + 4i 7 A + = A (A A ) [ ] 7 + 4i 4i 4 + i [ ] A + = i 4 4i = + i i i + 4i 7 i i Berechnung von L hom = Kern A = Bild E A + A: A + A = + i i [ ] + i i i = + i 0 i 0 i i 0 0 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN d.h. E A + A = i 0 + i 0 0 0 0 Die zweite Spalte ist das ( i)-fache der ersten Spalte. Diese Matrix hat somit den Spaltenrang und wir erhalten L hom = Kern A = Span + i 0 Eine partikuläre Lösung erhalten wir durch x p = A + b = + i i i = + i i + i i Die allgemeine Lösung lautet somit x = + i i + t + i, 0 t C Inhalt 4

.5. ANWENDUNGEN ZUR PSEUDOINVERSEN Beispiel.9 überbestimmte lineare Gleichungssysteme und Regression Als Regression bezeichnen wir hier das Problem, zu einer gegebenen Punktmenge im {(x ; y );... ; (x n ; y n )} R eine gut approximierende Kurve eines bestimmten Typs zu finden. Genauer suchen wir nach Geraden oder Parabeln (n-ten Grades), d.h. Graphen von Polynomen P mit der Eigenschaft, dass die Summe (y P(x ) ) +... + (y P(x ) ) minimal wird. Gegeben sind die Punkte (; 7), (; ), (; ), (0; 0) () Welche Ursprungsgerade y = mx ist die beste Näherung für die Punkte? () Welche Gerade y = mx + b ist die beste Näherung für die Punkte inklusive Nullpunkt? () Welche Parabel.ter Ordnung liefert die beste Approximation? () Welche Ursprungsgerade y = mx ist die beste Näherung für die Punkte? Die Antwort liefert die Minimum-Norm-Lösung von Da A vollen Spaltenrang hat, gilt Damit erhalten wir A + = ( A A) A = Die gesuchte Usprungsgerade ist y = x. 7 m =. }{{}}{{} =A =b m = A + b = 7 = 4 = 4 () Welche Gerade y = mx + b ist die beste Näherung für die Punkte inklusive Nullpunkt? Das Gleichungssystem lautet jetzt b 7 m + b b = 0 b 0 5 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN bzw Die Matrix A hat vollen Spaltenrang. Daher gilt A + = ( ) A A A 7 m = b 0 }{{} 0 =x }{{} =A Mit und folgt A 0 A = = 4 6 6 4 0 (A A) = 0 7 A + = 0 0 7 [ ] = 0 4 7 Die Minimum-Norm-Lösung lautet: Die gesuchte Gerade ist somit: 7 m = A + b = 0 0 y = 4 x 0 [ ] 4 7 7 = 0 0 4 Inhalt 6

.5. ANWENDUNGEN ZUR PSEUDOINVERSEN () Welche Parabel.ter Ordnung liefert die beste Approximation? Gesucht sind die Koeffizienten des Polynoms y(x) = a x + a x + a 0 Dazu bestimmen wir die Minimum-Norm-Lösung von a + a + a 0 = 7 4a + a + a 0 = 9a + a + a 0 = a 0 = 0 4 Die Matrix A = 9 hat vollen Spaltenrang. Somit gilt A+ = 0 0 ( ) A A A A 4 9 0 4 A = 0 9 = 98 6 4 49 8 7 6 4 6 = 8 7 4 6 4 7 0 0 und Es folgt (A A) = 5 5 5 5 49 0 5 9 A + = 5 5 5 4 9 0 5 49 0 0 5 9 = 5 5 5 5 7 9 0 9 7 Inhalt

KAPITEL. PSEUDOINVERSE MATRIZEN Die Minimum-Norm-Lösung lautet: a a a 0 7 = A + 0 = 5 5 5 5 7 7 9 0 9 0 = 0 9 5 4 Die gesuchte Parabel ist somit der Graph von: y(x) = 0x + 9x + 4 5 Inhalt 8