Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Größe: px
Ab Seite anzeigen:

Download "Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)"

Transkript

1 Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung Numerische Mathematik I 239

2 Nicht-reguläre Systeme 6.1 Nicht-reguläre Systeme Problemstellung: Das lineare Gleichungssystem Ax = b mit A R m n, b R m, umfasst m Gleichungen mit n Unbekannten. Wir lassen sogar zu, dass das System nicht lösbar (oder überbestimmt) ist, d.h. die Beziehung Rang(A) = Rang([A;b]) verletzt ist. Gesucht: Lösung x R n des Linearen Ausgleichsproblems: Ax b 2 = min x R n Ax b 2; d.h. der Vektor Ax hat den kleinsten euklidischen Abstand von der rechten Seite b unter allen Vektoren Ax, also allen Vektoren in Bild(A) R m. Bemerkung: a) Ax = b ist genau dann lösbar, wenn b Bild(A). b) dimbild(a) = Rang(A) min(m,n). Numerische Mathematik I 240

3 Nicht-reguläre Systeme Satz: Lösung des linearen Ausgleichsproblems Satz: Lösung des linearen Ausgleichsproblems Es seien m,n N sowie A R m n und b R m. a) Es existiert stets eine Lösung x R n des linearen Ausgleichsproblems. Ax b 2 = min x R n Ax b 2; b) Die Lösungen x von (6.1.1a) erfüllen die Normalengleichung (6.1.1a) A T Ax = A T b; (6.1.1b) umgekehrt ist jede Lösung x der Normalengleichung auch Lösung des linearen Ausgleichsproblems. c) Die Lösungsmenge der Normalengleichung ist der affine Unterraum x +Kern(A) = {x +y y Kern(A)}, wobei x eine Lösung von (6.1.1b) ist. Genau im Fall Rang(A) = n ist die Normalengleichung also eindeutig lösbar. Numerische Mathematik I 241

4 Nicht-reguläre Systeme Satz: Lösung des linearen Ausgleichsproblems Bemerkung: a) Für eine Matrix A R m n ist die Matrix A T A R n n symmetrisch und positiv semi definit. b) Im Fall Rang(A) = n ist A T A symmetrisch und positiv definit, also insbesondere invertierbar. Zur Lösung der Normalengleichung kann man die Cholesky-Zerlegung von A T A verwenden. Der Rechenaufwand ist mn2 + n3 zum Aufstellen der (unteren Hälfte der 2 6 symmetrischen) Matrix A T A und der Cholesky-Zerlegung. Numerische Mathematik I 242

5 Nicht-reguläre Systeme Satz: Lösung des linearen Ausgleichsproblems Beweis: (geometrisch!) 1. Die Untervektorräume Bild(A) = {Ax : x R n } R m, Kern(A T ) = {y R m : A T y = 0} R m sind orthogonal und erfüllen R m = Bild(A) Kern(A T ): denn 2. Zerlege die rechte Seite b: A T y = 0 (A T y) T x = 0 für alle x R n y T (Ax) = 0 für alle x R n y Bild(A). b = s +r mit s Bild(A), r Kern(A T ). Damit ist s die Orthogonalprojektion von b auf Bild(A), also b s 2 = min{ b Ax 2 : x R n }. Die Lösungen von (6.1.1a) sind also genau die Lösungen des linearen Gleichungssystems Ax = s. Dieses Gleichungssystem ist lösbar (wegen s Bild(A)), und damit ist Teil a) bewiesen. 3. Jede Lösung x von Ax = s erfüllt die Normalengleichung, denn A T Ax = A T s = A T b A T r = A T b, weil r Kern(A T ). Umgekehrt sei x eine Lösung der Normalengleichung (6.1.1b). Wegen s Bild(A) existiert y R n mit s = Ay. Damit folgt Ax s 2 2 = A(x y) 2 2 = (x y) T A T A(x y) = (x y) T (A T Ax A T s) = 0, }{{} =0 also gilt Ax = s. Damit ist Teil b) bewiesen. Teil c) folgt mit Linearer Algebra. Numerische Mathematik I 243

6 Nicht-reguläre Systeme Bemerkung: Bemerkung: Die Matrix M = A T A ist die Gramsche Matrix der Spaltenvektoren a 1,...,a n R m von A. Der Skalarproduktraum ist hierbei R m mit dem euklidischen Skalarprodukt. Die Normalengleichung in Satz für das lineare Ausgleichsproblem ist also genau das Gleichungssystem zur Berechnung der Gauß-Approximation in Satz 3.3.6(c). Numerische Mathematik I 244

7 Nicht-reguläre Systeme Anwendungsbeispiele: Anwendungsbeispiele: a) Gaußsche Ausgleichsparabel, Methode der kleinsten Fehlerquadrate (siehe polyfit): Gegeben: n N (Polynomgrad ist n 1), m n, Punkte (x k,y k ) mit k = 1,2,...,m Gesucht: Polynom p(x) = c 1 +c 2 x + +c nx n 1 mit m y k p(x k ) 2 min! k=1 Lösung: lineares Ausgleichsproblem Ax = b für den Vektor x = (c 1,...,c n) T R n und 1 x 1 x n 1 1 y 1 1 x 2 x n 1 2 y A =., b = x m xm n 1 y m Es gilt Rang(A) = n genau dann, wenn mindestens n verschiedene Argumente x k gegeben sind: dann ist die hierzu ausgewählte n n-teilmatrix eine Vandermonde-Matrix, hat also vollen Rang. Insbesondere dürfen die x k mehrfach auftreten. Numerische Mathematik I 245

8 Nicht-reguläre Systeme Anwendungsbeispiele: b) Gaußsche Ausgleichsrechnung mit Basisfunktionen u 1,...,u n : [a,b] R Gesucht: Funktion g(x) = c 1 u 1 (x)+c 2 u 2 (x)+ +c nu n(x) mit m y k g(x k ) 2 min! k=1 Lösung: lineares Ausgleichsproblem Ax = b für den Vektor x = (c 1,...,c n) T R n und u 1 (x 1 ) u 2 (x 1 ) u n(x 1 ) y 1 u 1 (x 2 ) u 2 (x 2 ) u n(x 2 ) y A =., b = 2.. u 1 (x m) u 2 (x m) u n(x m) y m Ob Rang(A) = n gilt, hängt von den Funktionen u 1,...,u n und der Lage der Stützstellen x 1,...,x m ab: es gilt Rang(A) = n genau dann, wenn keine nicht-triviale Linearkombination g = n c j u j, (c 1,...,c n) T R n \{0}, j=1 in allen x k, 1 k m, den Wert Null annimmt. Ist u 1,...,u n ein Tschebyscheff-System, so gilt dies immer, falls mindestens n verschiedene Stellen x k vorliegen. Numerische Mathematik I 246

9 Nicht-reguläre Systeme Anwendungsbeispiele: Kleiner Einschub: Definition: Tschebyscheff System, Haarscher Raum Es sei n 1 und u 1,...,u n C[a,b] seien linear unabhängig. Die Familie (u 1,...,u n ) heißt Tschebyscheff-System in C[a,b], wenn jede nicht-triviale Linearkombination g = n c j u j, (c 1,...,c n ) T R n \{0}, j=1 höchstens n 1 Nullstellen in [a, b] besitzt. Der n-dimensionale Vektorraum Span(u 1,...,u n ) heißt dann Haarscher Raum. Numerische Mathematik I 247

10 Nicht-reguläre Systeme Anwendungsbeispiele: c) Nichtlineare Ausgleichsrechnung, Koordinatentransformation Anstatt des in b) betrachteten Ansatzes werden oft nichtlineare Ansätze, z.b. g(x) = c 1 1+c 2 x, c 1,c 2 R, zur Approximation der Daten (x k,y k ), 1 k n, verwendet. Dieser Ansatz ist nichtlinear in Bezug auf die Unbekannten Koeffizienten c 1,c 2. Durch Koordinaten-Transformation (von y und/oder x) erzeugt man einen linearen Ansatz 1 g(x) = 1 c 1 + c 2 c 1 x für die neuen Variablen c 1 = 1, c 2 = c 2 c 1 c 1 und die transformierten Daten ( x k,ỹ k ) mit x k = x k, ỹ k = 1 y k ), 1 k n. Man führt die Gaußsche Ausgleichsrechnung für die transformierten Größen durch und bestimmt daraus die Funktion g. (Übung!) Numerische Mathematik I 248

11 Lösung mit der QR-Zerlegung 6.2 Lösung mit der QR-Zerlegung Ziel: Lösung des Linearen Ausgleichsproblems mit A R m n und b R m, Ax b 2 = min x R n Ax b 2, ohne Berechnung von A T A (zur Vermeidung von Rundungsfehlern). Verfahren: Für jede orthogonale Matrix Q O(m) gilt Falls es gelingt, ein so zu bestimmen, dass Ax b 2 = Q T (Ax b) 2 = Q T Ax Q T b) 2. ( ) Q T R A = 0 (m n) n Q O(m) r 11 mit R = r 1n R n n, 0 r nn gilt, so wird mit der Bezeichnung Q T b = ( c) d mit c R n, d R m n ( ) ( ) Ax b 2 2 = R c 2 x = Rx c 2 + d 0 2. (m n) n d 2 Das lineare Ausgleichsproblem wird im Fall Rang(A) = Rang(R) = n also von x = R 1 c gelöst; hierbei wird x mittels Rücksubstition berechnet. Numerische Mathematik I 249

12 Lösung mit der QR-Zerlegung Satz: QR-Zerlegung Wir formulieren die Haupt-Aussage gleichzeitig für reelle und komplexe Matrizen Satz: QR-Zerlegung Es sei A K m n mit Rang(A) = n gegeben. Dann existiert Q O(m) (falls K = R) bzw. Q U(m) (falls K = C) sowie eine obere Dreiecksmatrix R K n n mit reellen Diagonalelementen r jj > 0, 1 j n, so dass ( ) R A = Q gilt. Dabei gilt: 0 (m n) n (i) Die Matrix R sowie die ersten n Spalten von Q sind eindeutig bestimmt. (ii) Die ersten n Spalten von Q sind eine Orthonormalbasis von Bild(A). (iii) Die letzten m n Spalten von Q sind eine Orthonormalbasis von Kern(A T ). Numerische Mathematik I 250

13 Lösung mit der QR-Zerlegung Satz: QR-Zerlegung Beweis und Konstruktion von Q: Als Vektoren q 1,...,q n wählen wir die Vektoren im Gram-Schmidt-Orthonormalisierungsverfahren ausgehend von den Spalten a 1,...,a n R m von A; die Vektoren q 1,...,q n bilden also eine Orthonormalbasis von Bild(A). Spaltenweises Aufschreiben der Gleichung A = (a 1,...,a n) = (q 1,...,q n)r mit oberer Dreiecksmatrix R K n n ergibt a 1 = r 11 q 1, a 2 = r 12 q 1 +r 22 q 2, (6.2.1a). a n = r 1n q 1 + +r n 1,n q n 1 +r nnq n. Die Koeffizienten r jk sind dann r 11 = a 1, r 12 = a 2,q 1 q 1, r 22 = a 2 r 12 q 1. r 1n = a n,q 1,...,r n 1,n = a n,q n 1, r nn = a n r 1n q 1 r n 1,n q n 1. Wegen der linearen Unabhängigkeit der a 1,...,a n gilt r jj > 0 für 1 j n. Mit Wahl einer beliebigen ONB (q n+1,...,q m) von Bild(A) = Kern(A T ) ist Q = (q 1,...,q m) K m m orthogonal (bzw. unitär), und es gilt ( ) R A = Q. 0 (m n) n Eindeutigkeit von R mit r jj > 0 und den Vektoren q 1,...,q n folgt aus den Gleichungen (6.2.1a). Numerische Mathematik I 251

14 Lösung mit der QR-Zerlegung Bemerkung: Bemerkung: a) Die Matrix R in Satz ist der Cholesky-Faktor von A T A. b) Die Gram-Schmidt-Orthonormalisierung ist numerisch nicht besonders stabil: Nach wenigen Schritten (n 5) beobachtet man bereits den Verlust der paarweisen Orthogonalität der q j. Daher wird im Folgenden ein numerisch stabileres Verfahren zur Berechnung einer QR-Zerlegung (mit Diagonalelementen r jj 0) angegeben. Numerische Mathematik I 252

15 Lösung mit der QR-Zerlegung Definition: Householder-Transformation Definition: Householder-Transformation Für einen Einheitsvektor v K m, v 2 = 1, heißt die Matrix H v = I 2vv T = I 2 v 1. v m (v 1,...,v m ) K m m eine Householder-Transformation. Eigenschaften von H v: (siehe Übungen) (i) H v = H v T = H 1 v ; also ist H v hermitesch und orthogonal (für K = R) bzw. unitär (für K = C). (ii) H 2 v = I. (iii) H vy = y für alle y (Span(v)). im orthogonalen Komplement von (iv) H vy = y für alle y (Span(v)). Für K = R: H v beschreibt eine Spiegelung des R m an der Hyperebene (Span(v)). Numerische Mathematik I 253

16 Lösung mit der QR-Zerlegung Lemma: Householder-Transformation zur Elimination Lemma: Householder-Transformation zur Elimination Es sei y R m \{0}. Mit e 1 bezeichnen wir den ersten kanonischen Einheitsvektor. Wir setzen α = sign(y 1 ) y 2, ṽ = y +αe 1, v = 1 ṽ ṽ. Dann gilt H v y = αe 1. Bemerkung zur Wahl von α: (i) Alternativ kann man auch α = sign(y 1 ) y 2 wählen; dies ergibt jedoch im Spezialfall y = ce 1 den Vektor ṽ = 0, der zur Konstruktion von H v nicht zugelassen ist. Unsere Wahl im Lemma mit α = sign(y 1 ) y 2 hilft außerdem, Auslöschung bei der numerischen Berechnung von zu vermeiden. ṽ = (y 1 +α,y 2,...,y m) T (ii) Falls y 1 = 0, setze α = y 2 oder α = y 2. (iii) Im Komplexen wählt man α = e iarg(y 1) y 2 (numerisch stabile Wahl für ṽ = y +αe 1 ) oder α = e iarg(y 1) y 2. Numerische Mathematik I 254

17 Lösung mit der QR-Zerlegung Bemerkung: Praktischer Umgang mit Householder-Transformationen Bemerkung: Praktischer Umgang mit Householder-Transformationen (i) Bei Berechnungen stellt man die Matrix H v nicht auf, sondern bildet H vx = x 2(v T x) v = x 2 x,v v. Auch auf die Normierung kann verzichtet werden gemäß H vx = x 2 x,ṽ ṽ 2 ṽ. (ii) Im Reellen: für α = ±sign(y 1 ) y ist αy 1 = ± y 1 y ; für ṽ = y +αe 1 ist also Hiermit rechnet man für x R m zuerst und dann Speziell ergibt sich für x = y damit ṽ 2 = y 2 +2αy 1 + α 2 = 2 y ( y ± y 1 ). β = 2 x,ṽ ṽ 2 = x,y +αx 1 y ( y ± y 1 ) H vx = x βṽ = x βy αβe 1. β = 1, H vy = αe 1. Numerische Mathematik I 255

18 Lösung mit der QR-Zerlegung Beispiel: Beispiel: Elimination der 1. Spalte von A = durch Householder-Transformation: y = 1 0, α = y = 2, ṽ = Berechne A (1) = H va spaltenweise: β Zur Probe beachte man, dass die euklidische Norm der Spalten sich nicht ändert. Numerische Mathematik I 256

19 Lösung mit der QR-Zerlegung Algorithmus: QR-Zerlegung mit Householder-Matrizen Algorithmus: QR-Zerlegung mit Householder-Matrizen Es sei A R m n mit m n = Rang(A). Wir berechnen Matrizen r 11 r 1n... A (j). = H v (j) H v (1)A = r jj r jn, j = 1,...,n, 0 à (j) mit einer im nächsten Schritt zu bearbeitenden Teilmatrix ã (j) 1,1 ã (j) 1,n j à (j) =.. ã (j) m j,1 ã (j) m j,n j R(m j) (n j) (Ã(n) tritt nicht auf; falls m = n, so endet die Berechnung bei j = n 1). Der Vektor v (j) R m der Householder-Matrix H v (j) ist ein Einheitsvektor der Form v (j) = (0,...,0,v (j) j,...,v (j) m ) T. Numerische Mathematik I 257

20 Lösung mit der QR-Zerlegung Algorithmus: QR-Zerlegung mit Householder-Matrizen Initialisierung: A = A (0) = Ã(0) Für j = 1,...,n (bzw. j = 1,...,n 1 falls m = n) 1. y R m j+1 bezeichne die erste Spalte von Ã(j 1), setze α j = sign(y 1) y 2, ṽ (j) = (y 1 +α j,y 2,...,y m j+1) T R m j+1, 2. berechne A (j) = H v (j)a (j 1) wie folgt: v (j) = 1 ṽ (j) (0,...,0,ṽ(j) 1,...,ṽ(j) m j+1 )T R m. Zeilen und Spalten 1 bis j 1 von A (j 1) bleiben unverändert, Ersetze Spalte 1 von Ã(j 1) durch ( α j,0,...,0) T ; insbesondere ist r jj = α j. Für k = 2,...,n j +1 (nur falls j < n) ersetze Spalte k von Ã(j 1) durch k β jk ṽ (j) mit β jk = 2 ã(j 1) k,ṽ (j). ṽ (j) 2 ã (j 1) (n) Ergebnis: A = H v (1) H v (n) A und A (n) = }{{} =Q R m m Numerische Mathematik I 258 ( R 0 m n,n ).

21 Lösung mit der QR-Zerlegung Bemerkung: Bemerkung: a) Rechenaufwand für A (j) : Norm der Spalte ã (j 1) 1 R m j+1 : m j +1 Mult./Add. und eine Wurzel, β j,k, k = 2,...,n j +1: jeweils m j +1 Mult./Add. und 1 Division (gleicher Nenner), Update der Spalten k = 2,...,n j +1 von Ã(j 1) : jeweils m j +1 Mult./Add. Insgesamt für A (j) also (m j +1)(2(n j)+1) Mult./Add., n j Div., 1 Wurzel. Gesamter Rechenaufwand der QR-Zerlegung: 2 3 n3 +n 2 (m n)+o(n 2 +n(m n)) b) Die QR-Zerlegung wird auch zur Lösung linearer Gleichungssysteme Ax = b eingesetzt (also für reguläres A R n n ). Ihr Vorteil ist, dass die Konditionszahl (bzgl. der Spektralund der Frobeniusnorm) cond(a) = cond(a (1) ) = = cond(a (n) ) = cond(r) erhalten bleibt. Die Lösung von Rx = Q T b mittels Rücksubstitution erfolgt also mit einer oberen Dreiecksmatrix R mit der gleichen Kondition wie A. Der Nachteil ist der doppelt so hohe Rechenaufwand gegenüber der LR-Zerlegung. Numerische Mathematik I 259

22 Lösung mit der QR-Zerlegung Beispiel: Beispiel: QR-Zerlegung der Matrix A = durch Householder-Transformationen: Der 1. Schritt wurde in Beispiel mit v (1) 1 = berechnet. Für den 2. Schritt setze ( ) 1 y =, α 2 2 = y = 3, ṽ (2) = ( ) Berechne A (2) = H v (2)A (1) durch Update des unteren rechten 2 2-Blocks: β Es ist v (2) 1 = Numerische Mathematik I 260

23 Lösung mit der QR-Zerlegung Bemerkung: Bemerkung: Die Diagonaleinträge von R in der (reellen) QR-Zerlegung mit Householder-Matrizen sind r jj = α j. Um positive Diagonaleinträge r jj > 0 wie in Satz zu erhalten, muss man im j-ten Schritt die Wahl α j = y treffen, ohne Berücksichtigung des Vorzeichens der Komponente y 1. Achtung: Dies führt im Spezialfall y = ce 1 mit c > 0 zu ṽ j = 0, ist also gar nicht zulässig. Für diesen Fall setzt man statt H v (j) die Einheitsmatrix I ein (, die keine Householder-Matrix ist, warum?), führt also keinen Update der Spalten von Ã(j 1) durch. Numerische Mathematik I 261

24 Lösung mit der Singulärwertzerlegung 6.3 Lösung mit der Singulärwertzerlegung Ziel: Das Lineare Ausgleichsproblems mit A R m n, b R m und Rang(A) < n besitzt unendlich viele Lösungen: L = {x R n : A T Ax = A T b}. Man bestimme hiervon die Minimallösung x L mit x 2 = min{ x : x L}. (Geometrisch: x 2 ist der Abstand des affinen Raumes L vom Nullpunkt.) Numerische Mathematik I 262

25 Lösung mit der Singulärwertzerlegung Verfahren: Falls es gelingt, orthogonale Matrizen U O(m), V O(n) so zu bestimmen, dass σ 1 U T... AV = D = 0 σ r 0 mit σ 1 σ 2 σ r > 0 gilt (r = Rang(A)), so ist mit der Bezeichnung y = V T x Ax b 2 = U T Ax U T b 2 = U T AVV T x U T b 2 = Dy U T b 2 2, d.h. alle Lösungen x = Vy L des linearen Ausgleichsproblems sind gegeben durch y 1 = b,u 1 σ 1,...,y r = b,ur, y r+1,...,y n beliebig!. σ r Minimale Norm y 2 wird von y = (y 1,...,y r,0,...,0) T angenommen, minimale Norm x 2 = Vy 2 = y 2 also von x = Vy = r k=1 b,u k σ k v k. Numerische Mathematik I 263

26 Lösung mit der Singulärwertzerlegung Satz: Singulärwertzerlegung Satz: Singulärwertzerlegung Es seien m,n N sowie A R m n gegeben, weiter sei r = Rang(A). Dann existieren orthogonale Matrizen U O(m) und V O(n) und reelle Zahlen σ 1 σ 2 σ r > 0, so dass σ 1... A = UΣV T 0 mit Σ = σ r 0 0 K m n. Die Zahlen σ k, 1 k r, sind eindeutig bestimmt und heißen die Singulärwerte von A. Numerische Mathematik I 264

27 Lösung mit der Singulärwertzerlegung Bemerkung: Bemerkung: a) Im Fall r = Rang(A) = n < m hat die Matrix Σ die Gestalt σ 1... Σ = σ. n 0 (m n) n und im Fall r = Rang(A) = m < n ist σ 1 Σ =... 0m (n m). b) Die Moore-Penrose-Pseudoinverse A + R n m von A (Matlab/Octave pinv) ist 1 σ 1 A + = VΣ + U T mit Σ +. = Kn m. σ r 0 0 Man rechnet die charakterisierenden Eigenschaften AA + und A + A symmetrisch, AA + A = A, A + AA + = A + leicht nach. (Übungen!) Mit ihrer Hilfe lässt sich die Minimallösung schreiben als σ m x = A + b. Numerische Mathematik I 265

28 Lösung mit der Singulärwertzerlegung Bemerkung: Beweismethode 1: Eigenwerte und -vektoren von A T A und AA T : Es sei r = Rang(A). Die Matrix A T A R n n besitzt den Rang r, ist symmetrisch und positiv semi-definit. Zu ihren Eigenwerten λ 1 λ r > 0, λ r+1 = = λ n = 0 wählen wir eine ONB des R n aus Eigenvektoren (v 1,...,v n). Wir setzen u j = 1 Av λj j für j = 1,...,r. Es gilt u j 2 2 = 1 Av j 2 2 λ = 1 vj T A T T Av j = vj v j = 1, j λ j }{{} =λ j v j also sind u 1,...,u r Einheitsvektoren in R m. Wir ergänzen zu einer ONB (u 1,...,u m) des R m. Dann erhalten wir die Singulärwertzerlegung σ 1 U T AV = U T ( σ 1 u 1 σ ru r 0 0 )... 0 = σ r mit den Orthogonalmatrizen U = (u 1,...,u m), V = (v 1,...,v n) und den Singulärwerten σ j = λ j, j = 1,...,r. 0 Numerische Mathematik I 266

29 Lösung mit der Singulärwertzerlegung Bemerkung: Beweismethode 2: vollständige Induktion nach den Dimensionen von A: Es sei σ 1 = A 2 die Spektralnorm von A. 1. Im Fall σ 1 = 0 ist A = 0, also gilt A = UΣV für alle Orthogonalmatrizen U O(m) und V O(n) mit der Nullmatrix Σ = 0 R m n. 2. Es sei σ 1 0. Wähle einen Einheitsvektor v 1 R n mit Av 1 = σ 1 und setze u 1 = 1 v σ 1. 1 Sodann ergänze zu Orthogonalmatrizen V = (v 1,...,v n) O(n) und U = (u 1,...,u m) O(m). Dann gilt σ 1 w T U T AV = U T (σ 1 u 1, Av 2, Av n) = 0 B mit w R n 1 und B R (m 1) (n 1). Wir zeigen w = 0: ( σ 1 = A 2 = A T 2 = V T A T U 2 V T A T Ue 1 2 = σ1 w) 2 = σ1 2 + w 2. Numerische Mathematik I 267

30 Lösung mit der Singulärwertzerlegung Bemerkung: Sind nun Ũ O(m 1) und Ṽ O(n 1) so, dass σ B = Ũ ΣṼT mit Σ = σ R (m 1) (n 1), r 0 0 so ergibt sich die Singulärwertzerlegung σ 1 σ ( A = U. 1 ) T.. V. Ũ σ r Ṽ }{{} }{{} O(m) 0 0 O(n) Numerische Mathematik I 268

31 Lösung mit der Singulärwertzerlegung Bemerkung: Bemerkung: Es sei r = Rang(A) und A = UΣV T die Singulärwertzerlegung von A R m n. (i) σ 1 = A 2 ist der größte Singulärwert von A. (ii) Es gilt Kern(A) = Kern(A T A) = Span(v r+1,...,v n), Kern(A T ) = (Bild(A)) = Span(u r+1,...,u m). (iii) Die Singulärwertzerlegung von A kann geschrieben werden als r A = σ j u j vj T ; j=1 hierbei ist u j vj T eine m n-matrix vom Rang 1. (iv) Die Vektoren v 1,...,v r sind Eigenvektoren von A T A, und die die Vektoren u 1,...,u r sind Eigenvektoren von AA T, zu den gleichen Eigenwerten λ j = σ 2 j. Numerische Mathematik I 269

32 Lösung mit der Singulärwertzerlegung Bemerkung: Numerischer Rang Bemerkung: Numerischer Rang Falls Rang(A) = r < p := min{m,n} gilt, so werden trotzdem kleine Singulärwerte σ r+1,...,σ p > 0 (durch Rundungsfehler in A und im Berechnungsverfahren) berechnet. Dies führt zu einer großen Verfälschung der Minimallösung des linearen Ausgleichsproblems Ax b 2 = min!, also von x = p k=1 b,u k σ k v k. Definition: Für A R m n und ǫ > 0 heißt Rang(A,ǫ) = min{rang(b) : A B 2 ǫ} der numerische Rang von A. Die Matrix A heißt numerisch Rang-defizient, falls Rang(A,ǫ) < p = min{m,n} für ǫ = eps A 2. Numerische Mathematik I 270

33 Lösung mit der Singulärwertzerlegung Satz: Rang-k Approximation Satz: Rang-k Approximation Die Matrix A R m n habe die Singulärwertzerlegung A = UΣV T. Wir definieren die abgeschnittene Singulärwertzerlegung für 1 k < r = Rang(A) als A k = k j=1 σ j u j v T j. Dann gilt A A k 2 = min{ A B 2 : Rang(B) k} = σ k+1. Insbesondere gilt Rang(A,ǫ) = k für jedes σ k+1 ǫ < σ k. Numerische Mathematik I 271

34 Lösung mit der Singulärwertzerlegung σ 1... Beweis: Es gilt Rang(A k ) = k und A k = UΣ k V T 0 mit Σ k = σ. k Also ist 0 0 A A k 2 = U T (A A k )V 2 = Σ Σ k 2 = σ k+1, weil σ k+1 der größte Singulärwert von Σ Σ k ist. Sei nun B R m n mit Rang(B) k. Dann ist dim(kern(b)) n k, also dim(span(v 1,...,v k+1 ) Kern(B)) 1. Satz: Rang-k Approximation Wähle x = k+1 j=1 α jv j mit x 2 = 1 und x Kern(B). Dann ist k+1 1/2 1/2 k+1 k+1 (A B)x 2 = Ax 2 = α j σ j u j = α 2 j σj 2 σ k+1 α 2 j. j=1 j=1 j=1 2 }{{} = x 2 =1 Also ist die Spektralnorm von A B größer oder gleich σ k+1. Numerische Mathematik I 272

35 Konditionierung Definition: Konditionszahl rechteckiger Matrizen 6.4 Konditionierung Der Begriff der Konditionszahl wird auf rechteckige Matrizen erweitert Definition: Konditionszahl rechteckiger Matrizen Für A R m n mit Rang(A) = r und Singulärwerten σ 1 σ r > 0 heißt die (Spektral-)Kondition von A. cond 2 (A) = σ 1 σ r Bemerkung: a) Für die Moore-Penrose-Pseudoinverse A + gilt A + 2 = 1 σ r, also ist (fast wie für invertierbare Matrizen) cond 2 (A) = A 2 A + 2. b) Im Fall Rang(A) = n ist cond 2 (A) = cond 2 (A T A) = ( λmax(a T ) 1/2 A) λ min (A T. A) Numerische Mathematik I 273

36 Konditionierung Definition: Konditionszahl rechteckiger Matrizen Zusammenfassung: Methoden zur Lösung des linearen Ausgleichsproblems Ax b 2 min!, A R m n, Rang(A) = n. Methode Lösung Kondition Aufwand Normalengleichung A T Ax = A T b cond(a T A) = (cond(a)) 2 mn2 + n3 2 6 QR-Zerlegung Rx = (q 1,...,q n) T b cond(r) = cond(a) mn 2 n3 3 Singulärwertzerlegung x = n k=1 b,u k σ k v k cond(σ) = cond(a) 2mn 2 +4n 3 Bemerkung: ( ) R a) Zur QR-Zerlegung: Aus A = Q folgt 0 ( R 2 = R = Q 0) T A 2 = A 2 = σ 1. 2 Die Moore-Penrose-Pseudoinverse von A ist A + = (R 1 0)Q T, also R 1 2 = (R 1 0) 2 = A + Q 2 = A + 2 = 1 σ n. b) Als Algorithmus zur Singulärwertzerlegung wird das iterative Verfahren von Golub und Reinsch empfohlen, siehe G. Golub, C. van Loan, Matrix Computations, Abschnitt 8.6, Johns Hopkins University Press; 3. Auflage, Numerische Mathematik I 274

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b]) Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Singulärwert-Zerlegung

Singulärwert-Zerlegung Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen In diesem Kapitel werden nur endlich dimensionale

Mehr

Computergestützte Mathematik zur Linearen Algebra

Computergestützte Mathematik zur Linearen Algebra Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme 3 Lineare Gleichungssysteme 3 Fortsetzung des Matrizenkalküls Als erstes beweisen wir einen einfachen Satz über den Rang von Matrizenprodukten Satz 3 (a) Für Matrizen A : Ã l m, B : Ã m n gilt rang AB

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1. b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana.

Lineare Algebra. 13. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

5 Lineare Ausgleichsrechnung

5 Lineare Ausgleichsrechnung Numerische Mathematik 195 5 Lineare Ausgleichsrechnung 5.1 Die Normalgleichungen Das lineare Ausgleichsproblem (Kleinste-Quadrate-Problem): Gegeben sind A R m n und b R m. Gesucht ist ein Vektor x R n

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

Numerische Verfahren

Numerische Verfahren Numerische Verfahren Jens-Peter M. Zemke zemke@tu-harburg.de Institut für Numerische Simulation Technische Universität Hamburg-Harburg 03.06.2008 TUHH Jens-Peter M. Zemke Numerische Verfahren Lineare Ausgleichsprobleme

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und

Mehr

Reduced-Rank Least Squares Modelle

Reduced-Rank Least Squares Modelle 16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

= ( n x j x j ) 1 / 2

= ( n x j x j ) 1 / 2 15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie: Aufgabe I (4 Punkte Gegeben seien die Matrix und die Menge Zeigen Sie: H := L := {A R 4 4 A HA = H} a L ist bezüglich der Matrizenmultiplikation eine Gruppe b Die Matrizen der Form ( E O, O B wobei E R

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG R Käppeli L Herrmann W Wu Herbstsemester Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 9 Finden Sie eine Basis des Lösungsraums L R 5 des linearen

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Lineare Algebra für Ingenieure

Lineare Algebra für Ingenieure TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen

Mehr

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel 4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017 Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block

Mehr

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1. Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Klausurenkurs zum Staatsexamen (WS 2016/17): Lineare Algebra und analytische Geometrie 1

Klausurenkurs zum Staatsexamen (WS 2016/17): Lineare Algebra und analytische Geometrie 1 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 206/7): Lineare Algebra und analytische Geometrie. (Herbst 2005, Thema, Aufgabe ) Bestimmen Sie alle reellen Lösungen des folgenden linearen Gleichungssystems:.2

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012 Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

8 Euklidische und unitäre Vektorräume

8 Euklidische und unitäre Vektorräume 8 Euklidische und unitäre Vektorräume In diesem Kapitel werden nur endlich dimensionale Vektorräume über à = Ê oder à = betrachtet. Der Querstrich bezeichnet die komplexe Konjugation (z = x+iy, z = x iy).

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung 4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Serie 8: Online-Test

Serie 8: Online-Test D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Musterlösung Serie 21

Musterlösung Serie 21 D-MATH Lineare Algebra II FS 09 Prof. Richard Pink Musterlösung Serie Positiv-Definitheit und Singulärwertzerlegung. Welche der folgenden drei reellen symmetrischen Matrizen sind positiv definit? A : 6

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

4 Lineare Ausgleichsrechnung

4 Lineare Ausgleichsrechnung Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323

Mehr

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4 Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2

Mehr

Lineare Algebra. 9. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 9. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 9. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching November, 07 Erinnerung Ein Skalarprodukt ist eine Abbildung, : E n E n E, (v, w) v, w n k v kw k so dass:

Mehr

9. Übung zur Linearen Algebra II -

9. Übung zur Linearen Algebra II - 9. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr