Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)
|
|
- Minna Brandt
- vor 7 Jahren
- Abrufe
Transkript
1 Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung Numerische Mathematik I 239
2 Nicht-reguläre Systeme 6.1 Nicht-reguläre Systeme Problemstellung: Das lineare Gleichungssystem Ax = b mit A R m n, b R m, umfasst m Gleichungen mit n Unbekannten. Wir lassen sogar zu, dass das System nicht lösbar (oder überbestimmt) ist, d.h. die Beziehung Rang(A) = Rang([A;b]) verletzt ist. Gesucht: Lösung x R n des Linearen Ausgleichsproblems: Ax b 2 = min x R n Ax b 2; d.h. der Vektor Ax hat den kleinsten euklidischen Abstand von der rechten Seite b unter allen Vektoren Ax, also allen Vektoren in Bild(A) R m. Bemerkung: a) Ax = b ist genau dann lösbar, wenn b Bild(A). b) dimbild(a) = Rang(A) min(m,n). Numerische Mathematik I 240
3 Nicht-reguläre Systeme Satz: Lösung des linearen Ausgleichsproblems Satz: Lösung des linearen Ausgleichsproblems Es seien m,n N sowie A R m n und b R m. a) Es existiert stets eine Lösung x R n des linearen Ausgleichsproblems. Ax b 2 = min x R n Ax b 2; b) Die Lösungen x von (6.1.1a) erfüllen die Normalengleichung (6.1.1a) A T Ax = A T b; (6.1.1b) umgekehrt ist jede Lösung x der Normalengleichung auch Lösung des linearen Ausgleichsproblems. c) Die Lösungsmenge der Normalengleichung ist der affine Unterraum x +Kern(A) = {x +y y Kern(A)}, wobei x eine Lösung von (6.1.1b) ist. Genau im Fall Rang(A) = n ist die Normalengleichung also eindeutig lösbar. Numerische Mathematik I 241
4 Nicht-reguläre Systeme Satz: Lösung des linearen Ausgleichsproblems Bemerkung: a) Für eine Matrix A R m n ist die Matrix A T A R n n symmetrisch und positiv semi definit. b) Im Fall Rang(A) = n ist A T A symmetrisch und positiv definit, also insbesondere invertierbar. Zur Lösung der Normalengleichung kann man die Cholesky-Zerlegung von A T A verwenden. Der Rechenaufwand ist mn2 + n3 zum Aufstellen der (unteren Hälfte der 2 6 symmetrischen) Matrix A T A und der Cholesky-Zerlegung. Numerische Mathematik I 242
5 Nicht-reguläre Systeme Satz: Lösung des linearen Ausgleichsproblems Beweis: (geometrisch!) 1. Die Untervektorräume Bild(A) = {Ax : x R n } R m, Kern(A T ) = {y R m : A T y = 0} R m sind orthogonal und erfüllen R m = Bild(A) Kern(A T ): denn 2. Zerlege die rechte Seite b: A T y = 0 (A T y) T x = 0 für alle x R n y T (Ax) = 0 für alle x R n y Bild(A). b = s +r mit s Bild(A), r Kern(A T ). Damit ist s die Orthogonalprojektion von b auf Bild(A), also b s 2 = min{ b Ax 2 : x R n }. Die Lösungen von (6.1.1a) sind also genau die Lösungen des linearen Gleichungssystems Ax = s. Dieses Gleichungssystem ist lösbar (wegen s Bild(A)), und damit ist Teil a) bewiesen. 3. Jede Lösung x von Ax = s erfüllt die Normalengleichung, denn A T Ax = A T s = A T b A T r = A T b, weil r Kern(A T ). Umgekehrt sei x eine Lösung der Normalengleichung (6.1.1b). Wegen s Bild(A) existiert y R n mit s = Ay. Damit folgt Ax s 2 2 = A(x y) 2 2 = (x y) T A T A(x y) = (x y) T (A T Ax A T s) = 0, }{{} =0 also gilt Ax = s. Damit ist Teil b) bewiesen. Teil c) folgt mit Linearer Algebra. Numerische Mathematik I 243
6 Nicht-reguläre Systeme Bemerkung: Bemerkung: Die Matrix M = A T A ist die Gramsche Matrix der Spaltenvektoren a 1,...,a n R m von A. Der Skalarproduktraum ist hierbei R m mit dem euklidischen Skalarprodukt. Die Normalengleichung in Satz für das lineare Ausgleichsproblem ist also genau das Gleichungssystem zur Berechnung der Gauß-Approximation in Satz 3.3.6(c). Numerische Mathematik I 244
7 Nicht-reguläre Systeme Anwendungsbeispiele: Anwendungsbeispiele: a) Gaußsche Ausgleichsparabel, Methode der kleinsten Fehlerquadrate (siehe polyfit): Gegeben: n N (Polynomgrad ist n 1), m n, Punkte (x k,y k ) mit k = 1,2,...,m Gesucht: Polynom p(x) = c 1 +c 2 x + +c nx n 1 mit m y k p(x k ) 2 min! k=1 Lösung: lineares Ausgleichsproblem Ax = b für den Vektor x = (c 1,...,c n) T R n und 1 x 1 x n 1 1 y 1 1 x 2 x n 1 2 y A =., b = x m xm n 1 y m Es gilt Rang(A) = n genau dann, wenn mindestens n verschiedene Argumente x k gegeben sind: dann ist die hierzu ausgewählte n n-teilmatrix eine Vandermonde-Matrix, hat also vollen Rang. Insbesondere dürfen die x k mehrfach auftreten. Numerische Mathematik I 245
8 Nicht-reguläre Systeme Anwendungsbeispiele: b) Gaußsche Ausgleichsrechnung mit Basisfunktionen u 1,...,u n : [a,b] R Gesucht: Funktion g(x) = c 1 u 1 (x)+c 2 u 2 (x)+ +c nu n(x) mit m y k g(x k ) 2 min! k=1 Lösung: lineares Ausgleichsproblem Ax = b für den Vektor x = (c 1,...,c n) T R n und u 1 (x 1 ) u 2 (x 1 ) u n(x 1 ) y 1 u 1 (x 2 ) u 2 (x 2 ) u n(x 2 ) y A =., b = 2.. u 1 (x m) u 2 (x m) u n(x m) y m Ob Rang(A) = n gilt, hängt von den Funktionen u 1,...,u n und der Lage der Stützstellen x 1,...,x m ab: es gilt Rang(A) = n genau dann, wenn keine nicht-triviale Linearkombination g = n c j u j, (c 1,...,c n) T R n \{0}, j=1 in allen x k, 1 k m, den Wert Null annimmt. Ist u 1,...,u n ein Tschebyscheff-System, so gilt dies immer, falls mindestens n verschiedene Stellen x k vorliegen. Numerische Mathematik I 246
9 Nicht-reguläre Systeme Anwendungsbeispiele: Kleiner Einschub: Definition: Tschebyscheff System, Haarscher Raum Es sei n 1 und u 1,...,u n C[a,b] seien linear unabhängig. Die Familie (u 1,...,u n ) heißt Tschebyscheff-System in C[a,b], wenn jede nicht-triviale Linearkombination g = n c j u j, (c 1,...,c n ) T R n \{0}, j=1 höchstens n 1 Nullstellen in [a, b] besitzt. Der n-dimensionale Vektorraum Span(u 1,...,u n ) heißt dann Haarscher Raum. Numerische Mathematik I 247
10 Nicht-reguläre Systeme Anwendungsbeispiele: c) Nichtlineare Ausgleichsrechnung, Koordinatentransformation Anstatt des in b) betrachteten Ansatzes werden oft nichtlineare Ansätze, z.b. g(x) = c 1 1+c 2 x, c 1,c 2 R, zur Approximation der Daten (x k,y k ), 1 k n, verwendet. Dieser Ansatz ist nichtlinear in Bezug auf die Unbekannten Koeffizienten c 1,c 2. Durch Koordinaten-Transformation (von y und/oder x) erzeugt man einen linearen Ansatz 1 g(x) = 1 c 1 + c 2 c 1 x für die neuen Variablen c 1 = 1, c 2 = c 2 c 1 c 1 und die transformierten Daten ( x k,ỹ k ) mit x k = x k, ỹ k = 1 y k ), 1 k n. Man führt die Gaußsche Ausgleichsrechnung für die transformierten Größen durch und bestimmt daraus die Funktion g. (Übung!) Numerische Mathematik I 248
11 Lösung mit der QR-Zerlegung 6.2 Lösung mit der QR-Zerlegung Ziel: Lösung des Linearen Ausgleichsproblems mit A R m n und b R m, Ax b 2 = min x R n Ax b 2, ohne Berechnung von A T A (zur Vermeidung von Rundungsfehlern). Verfahren: Für jede orthogonale Matrix Q O(m) gilt Falls es gelingt, ein so zu bestimmen, dass Ax b 2 = Q T (Ax b) 2 = Q T Ax Q T b) 2. ( ) Q T R A = 0 (m n) n Q O(m) r 11 mit R = r 1n R n n, 0 r nn gilt, so wird mit der Bezeichnung Q T b = ( c) d mit c R n, d R m n ( ) ( ) Ax b 2 2 = R c 2 x = Rx c 2 + d 0 2. (m n) n d 2 Das lineare Ausgleichsproblem wird im Fall Rang(A) = Rang(R) = n also von x = R 1 c gelöst; hierbei wird x mittels Rücksubstition berechnet. Numerische Mathematik I 249
12 Lösung mit der QR-Zerlegung Satz: QR-Zerlegung Wir formulieren die Haupt-Aussage gleichzeitig für reelle und komplexe Matrizen Satz: QR-Zerlegung Es sei A K m n mit Rang(A) = n gegeben. Dann existiert Q O(m) (falls K = R) bzw. Q U(m) (falls K = C) sowie eine obere Dreiecksmatrix R K n n mit reellen Diagonalelementen r jj > 0, 1 j n, so dass ( ) R A = Q gilt. Dabei gilt: 0 (m n) n (i) Die Matrix R sowie die ersten n Spalten von Q sind eindeutig bestimmt. (ii) Die ersten n Spalten von Q sind eine Orthonormalbasis von Bild(A). (iii) Die letzten m n Spalten von Q sind eine Orthonormalbasis von Kern(A T ). Numerische Mathematik I 250
13 Lösung mit der QR-Zerlegung Satz: QR-Zerlegung Beweis und Konstruktion von Q: Als Vektoren q 1,...,q n wählen wir die Vektoren im Gram-Schmidt-Orthonormalisierungsverfahren ausgehend von den Spalten a 1,...,a n R m von A; die Vektoren q 1,...,q n bilden also eine Orthonormalbasis von Bild(A). Spaltenweises Aufschreiben der Gleichung A = (a 1,...,a n) = (q 1,...,q n)r mit oberer Dreiecksmatrix R K n n ergibt a 1 = r 11 q 1, a 2 = r 12 q 1 +r 22 q 2, (6.2.1a). a n = r 1n q 1 + +r n 1,n q n 1 +r nnq n. Die Koeffizienten r jk sind dann r 11 = a 1, r 12 = a 2,q 1 q 1, r 22 = a 2 r 12 q 1. r 1n = a n,q 1,...,r n 1,n = a n,q n 1, r nn = a n r 1n q 1 r n 1,n q n 1. Wegen der linearen Unabhängigkeit der a 1,...,a n gilt r jj > 0 für 1 j n. Mit Wahl einer beliebigen ONB (q n+1,...,q m) von Bild(A) = Kern(A T ) ist Q = (q 1,...,q m) K m m orthogonal (bzw. unitär), und es gilt ( ) R A = Q. 0 (m n) n Eindeutigkeit von R mit r jj > 0 und den Vektoren q 1,...,q n folgt aus den Gleichungen (6.2.1a). Numerische Mathematik I 251
14 Lösung mit der QR-Zerlegung Bemerkung: Bemerkung: a) Die Matrix R in Satz ist der Cholesky-Faktor von A T A. b) Die Gram-Schmidt-Orthonormalisierung ist numerisch nicht besonders stabil: Nach wenigen Schritten (n 5) beobachtet man bereits den Verlust der paarweisen Orthogonalität der q j. Daher wird im Folgenden ein numerisch stabileres Verfahren zur Berechnung einer QR-Zerlegung (mit Diagonalelementen r jj 0) angegeben. Numerische Mathematik I 252
15 Lösung mit der QR-Zerlegung Definition: Householder-Transformation Definition: Householder-Transformation Für einen Einheitsvektor v K m, v 2 = 1, heißt die Matrix H v = I 2vv T = I 2 v 1. v m (v 1,...,v m ) K m m eine Householder-Transformation. Eigenschaften von H v: (siehe Übungen) (i) H v = H v T = H 1 v ; also ist H v hermitesch und orthogonal (für K = R) bzw. unitär (für K = C). (ii) H 2 v = I. (iii) H vy = y für alle y (Span(v)). im orthogonalen Komplement von (iv) H vy = y für alle y (Span(v)). Für K = R: H v beschreibt eine Spiegelung des R m an der Hyperebene (Span(v)). Numerische Mathematik I 253
16 Lösung mit der QR-Zerlegung Lemma: Householder-Transformation zur Elimination Lemma: Householder-Transformation zur Elimination Es sei y R m \{0}. Mit e 1 bezeichnen wir den ersten kanonischen Einheitsvektor. Wir setzen α = sign(y 1 ) y 2, ṽ = y +αe 1, v = 1 ṽ ṽ. Dann gilt H v y = αe 1. Bemerkung zur Wahl von α: (i) Alternativ kann man auch α = sign(y 1 ) y 2 wählen; dies ergibt jedoch im Spezialfall y = ce 1 den Vektor ṽ = 0, der zur Konstruktion von H v nicht zugelassen ist. Unsere Wahl im Lemma mit α = sign(y 1 ) y 2 hilft außerdem, Auslöschung bei der numerischen Berechnung von zu vermeiden. ṽ = (y 1 +α,y 2,...,y m) T (ii) Falls y 1 = 0, setze α = y 2 oder α = y 2. (iii) Im Komplexen wählt man α = e iarg(y 1) y 2 (numerisch stabile Wahl für ṽ = y +αe 1 ) oder α = e iarg(y 1) y 2. Numerische Mathematik I 254
17 Lösung mit der QR-Zerlegung Bemerkung: Praktischer Umgang mit Householder-Transformationen Bemerkung: Praktischer Umgang mit Householder-Transformationen (i) Bei Berechnungen stellt man die Matrix H v nicht auf, sondern bildet H vx = x 2(v T x) v = x 2 x,v v. Auch auf die Normierung kann verzichtet werden gemäß H vx = x 2 x,ṽ ṽ 2 ṽ. (ii) Im Reellen: für α = ±sign(y 1 ) y ist αy 1 = ± y 1 y ; für ṽ = y +αe 1 ist also Hiermit rechnet man für x R m zuerst und dann Speziell ergibt sich für x = y damit ṽ 2 = y 2 +2αy 1 + α 2 = 2 y ( y ± y 1 ). β = 2 x,ṽ ṽ 2 = x,y +αx 1 y ( y ± y 1 ) H vx = x βṽ = x βy αβe 1. β = 1, H vy = αe 1. Numerische Mathematik I 255
18 Lösung mit der QR-Zerlegung Beispiel: Beispiel: Elimination der 1. Spalte von A = durch Householder-Transformation: y = 1 0, α = y = 2, ṽ = Berechne A (1) = H va spaltenweise: β Zur Probe beachte man, dass die euklidische Norm der Spalten sich nicht ändert. Numerische Mathematik I 256
19 Lösung mit der QR-Zerlegung Algorithmus: QR-Zerlegung mit Householder-Matrizen Algorithmus: QR-Zerlegung mit Householder-Matrizen Es sei A R m n mit m n = Rang(A). Wir berechnen Matrizen r 11 r 1n... A (j). = H v (j) H v (1)A = r jj r jn, j = 1,...,n, 0 à (j) mit einer im nächsten Schritt zu bearbeitenden Teilmatrix ã (j) 1,1 ã (j) 1,n j à (j) =.. ã (j) m j,1 ã (j) m j,n j R(m j) (n j) (Ã(n) tritt nicht auf; falls m = n, so endet die Berechnung bei j = n 1). Der Vektor v (j) R m der Householder-Matrix H v (j) ist ein Einheitsvektor der Form v (j) = (0,...,0,v (j) j,...,v (j) m ) T. Numerische Mathematik I 257
20 Lösung mit der QR-Zerlegung Algorithmus: QR-Zerlegung mit Householder-Matrizen Initialisierung: A = A (0) = Ã(0) Für j = 1,...,n (bzw. j = 1,...,n 1 falls m = n) 1. y R m j+1 bezeichne die erste Spalte von Ã(j 1), setze α j = sign(y 1) y 2, ṽ (j) = (y 1 +α j,y 2,...,y m j+1) T R m j+1, 2. berechne A (j) = H v (j)a (j 1) wie folgt: v (j) = 1 ṽ (j) (0,...,0,ṽ(j) 1,...,ṽ(j) m j+1 )T R m. Zeilen und Spalten 1 bis j 1 von A (j 1) bleiben unverändert, Ersetze Spalte 1 von Ã(j 1) durch ( α j,0,...,0) T ; insbesondere ist r jj = α j. Für k = 2,...,n j +1 (nur falls j < n) ersetze Spalte k von Ã(j 1) durch k β jk ṽ (j) mit β jk = 2 ã(j 1) k,ṽ (j). ṽ (j) 2 ã (j 1) (n) Ergebnis: A = H v (1) H v (n) A und A (n) = }{{} =Q R m m Numerische Mathematik I 258 ( R 0 m n,n ).
21 Lösung mit der QR-Zerlegung Bemerkung: Bemerkung: a) Rechenaufwand für A (j) : Norm der Spalte ã (j 1) 1 R m j+1 : m j +1 Mult./Add. und eine Wurzel, β j,k, k = 2,...,n j +1: jeweils m j +1 Mult./Add. und 1 Division (gleicher Nenner), Update der Spalten k = 2,...,n j +1 von Ã(j 1) : jeweils m j +1 Mult./Add. Insgesamt für A (j) also (m j +1)(2(n j)+1) Mult./Add., n j Div., 1 Wurzel. Gesamter Rechenaufwand der QR-Zerlegung: 2 3 n3 +n 2 (m n)+o(n 2 +n(m n)) b) Die QR-Zerlegung wird auch zur Lösung linearer Gleichungssysteme Ax = b eingesetzt (also für reguläres A R n n ). Ihr Vorteil ist, dass die Konditionszahl (bzgl. der Spektralund der Frobeniusnorm) cond(a) = cond(a (1) ) = = cond(a (n) ) = cond(r) erhalten bleibt. Die Lösung von Rx = Q T b mittels Rücksubstitution erfolgt also mit einer oberen Dreiecksmatrix R mit der gleichen Kondition wie A. Der Nachteil ist der doppelt so hohe Rechenaufwand gegenüber der LR-Zerlegung. Numerische Mathematik I 259
22 Lösung mit der QR-Zerlegung Beispiel: Beispiel: QR-Zerlegung der Matrix A = durch Householder-Transformationen: Der 1. Schritt wurde in Beispiel mit v (1) 1 = berechnet. Für den 2. Schritt setze ( ) 1 y =, α 2 2 = y = 3, ṽ (2) = ( ) Berechne A (2) = H v (2)A (1) durch Update des unteren rechten 2 2-Blocks: β Es ist v (2) 1 = Numerische Mathematik I 260
23 Lösung mit der QR-Zerlegung Bemerkung: Bemerkung: Die Diagonaleinträge von R in der (reellen) QR-Zerlegung mit Householder-Matrizen sind r jj = α j. Um positive Diagonaleinträge r jj > 0 wie in Satz zu erhalten, muss man im j-ten Schritt die Wahl α j = y treffen, ohne Berücksichtigung des Vorzeichens der Komponente y 1. Achtung: Dies führt im Spezialfall y = ce 1 mit c > 0 zu ṽ j = 0, ist also gar nicht zulässig. Für diesen Fall setzt man statt H v (j) die Einheitsmatrix I ein (, die keine Householder-Matrix ist, warum?), führt also keinen Update der Spalten von Ã(j 1) durch. Numerische Mathematik I 261
24 Lösung mit der Singulärwertzerlegung 6.3 Lösung mit der Singulärwertzerlegung Ziel: Das Lineare Ausgleichsproblems mit A R m n, b R m und Rang(A) < n besitzt unendlich viele Lösungen: L = {x R n : A T Ax = A T b}. Man bestimme hiervon die Minimallösung x L mit x 2 = min{ x : x L}. (Geometrisch: x 2 ist der Abstand des affinen Raumes L vom Nullpunkt.) Numerische Mathematik I 262
25 Lösung mit der Singulärwertzerlegung Verfahren: Falls es gelingt, orthogonale Matrizen U O(m), V O(n) so zu bestimmen, dass σ 1 U T... AV = D = 0 σ r 0 mit σ 1 σ 2 σ r > 0 gilt (r = Rang(A)), so ist mit der Bezeichnung y = V T x Ax b 2 = U T Ax U T b 2 = U T AVV T x U T b 2 = Dy U T b 2 2, d.h. alle Lösungen x = Vy L des linearen Ausgleichsproblems sind gegeben durch y 1 = b,u 1 σ 1,...,y r = b,ur, y r+1,...,y n beliebig!. σ r Minimale Norm y 2 wird von y = (y 1,...,y r,0,...,0) T angenommen, minimale Norm x 2 = Vy 2 = y 2 also von x = Vy = r k=1 b,u k σ k v k. Numerische Mathematik I 263
26 Lösung mit der Singulärwertzerlegung Satz: Singulärwertzerlegung Satz: Singulärwertzerlegung Es seien m,n N sowie A R m n gegeben, weiter sei r = Rang(A). Dann existieren orthogonale Matrizen U O(m) und V O(n) und reelle Zahlen σ 1 σ 2 σ r > 0, so dass σ 1... A = UΣV T 0 mit Σ = σ r 0 0 K m n. Die Zahlen σ k, 1 k r, sind eindeutig bestimmt und heißen die Singulärwerte von A. Numerische Mathematik I 264
27 Lösung mit der Singulärwertzerlegung Bemerkung: Bemerkung: a) Im Fall r = Rang(A) = n < m hat die Matrix Σ die Gestalt σ 1... Σ = σ. n 0 (m n) n und im Fall r = Rang(A) = m < n ist σ 1 Σ =... 0m (n m). b) Die Moore-Penrose-Pseudoinverse A + R n m von A (Matlab/Octave pinv) ist 1 σ 1 A + = VΣ + U T mit Σ +. = Kn m. σ r 0 0 Man rechnet die charakterisierenden Eigenschaften AA + und A + A symmetrisch, AA + A = A, A + AA + = A + leicht nach. (Übungen!) Mit ihrer Hilfe lässt sich die Minimallösung schreiben als σ m x = A + b. Numerische Mathematik I 265
28 Lösung mit der Singulärwertzerlegung Bemerkung: Beweismethode 1: Eigenwerte und -vektoren von A T A und AA T : Es sei r = Rang(A). Die Matrix A T A R n n besitzt den Rang r, ist symmetrisch und positiv semi-definit. Zu ihren Eigenwerten λ 1 λ r > 0, λ r+1 = = λ n = 0 wählen wir eine ONB des R n aus Eigenvektoren (v 1,...,v n). Wir setzen u j = 1 Av λj j für j = 1,...,r. Es gilt u j 2 2 = 1 Av j 2 2 λ = 1 vj T A T T Av j = vj v j = 1, j λ j }{{} =λ j v j also sind u 1,...,u r Einheitsvektoren in R m. Wir ergänzen zu einer ONB (u 1,...,u m) des R m. Dann erhalten wir die Singulärwertzerlegung σ 1 U T AV = U T ( σ 1 u 1 σ ru r 0 0 )... 0 = σ r mit den Orthogonalmatrizen U = (u 1,...,u m), V = (v 1,...,v n) und den Singulärwerten σ j = λ j, j = 1,...,r. 0 Numerische Mathematik I 266
29 Lösung mit der Singulärwertzerlegung Bemerkung: Beweismethode 2: vollständige Induktion nach den Dimensionen von A: Es sei σ 1 = A 2 die Spektralnorm von A. 1. Im Fall σ 1 = 0 ist A = 0, also gilt A = UΣV für alle Orthogonalmatrizen U O(m) und V O(n) mit der Nullmatrix Σ = 0 R m n. 2. Es sei σ 1 0. Wähle einen Einheitsvektor v 1 R n mit Av 1 = σ 1 und setze u 1 = 1 v σ 1. 1 Sodann ergänze zu Orthogonalmatrizen V = (v 1,...,v n) O(n) und U = (u 1,...,u m) O(m). Dann gilt σ 1 w T U T AV = U T (σ 1 u 1, Av 2, Av n) = 0 B mit w R n 1 und B R (m 1) (n 1). Wir zeigen w = 0: ( σ 1 = A 2 = A T 2 = V T A T U 2 V T A T Ue 1 2 = σ1 w) 2 = σ1 2 + w 2. Numerische Mathematik I 267
30 Lösung mit der Singulärwertzerlegung Bemerkung: Sind nun Ũ O(m 1) und Ṽ O(n 1) so, dass σ B = Ũ ΣṼT mit Σ = σ R (m 1) (n 1), r 0 0 so ergibt sich die Singulärwertzerlegung σ 1 σ ( A = U. 1 ) T.. V. Ũ σ r Ṽ }{{} }{{} O(m) 0 0 O(n) Numerische Mathematik I 268
31 Lösung mit der Singulärwertzerlegung Bemerkung: Bemerkung: Es sei r = Rang(A) und A = UΣV T die Singulärwertzerlegung von A R m n. (i) σ 1 = A 2 ist der größte Singulärwert von A. (ii) Es gilt Kern(A) = Kern(A T A) = Span(v r+1,...,v n), Kern(A T ) = (Bild(A)) = Span(u r+1,...,u m). (iii) Die Singulärwertzerlegung von A kann geschrieben werden als r A = σ j u j vj T ; j=1 hierbei ist u j vj T eine m n-matrix vom Rang 1. (iv) Die Vektoren v 1,...,v r sind Eigenvektoren von A T A, und die die Vektoren u 1,...,u r sind Eigenvektoren von AA T, zu den gleichen Eigenwerten λ j = σ 2 j. Numerische Mathematik I 269
32 Lösung mit der Singulärwertzerlegung Bemerkung: Numerischer Rang Bemerkung: Numerischer Rang Falls Rang(A) = r < p := min{m,n} gilt, so werden trotzdem kleine Singulärwerte σ r+1,...,σ p > 0 (durch Rundungsfehler in A und im Berechnungsverfahren) berechnet. Dies führt zu einer großen Verfälschung der Minimallösung des linearen Ausgleichsproblems Ax b 2 = min!, also von x = p k=1 b,u k σ k v k. Definition: Für A R m n und ǫ > 0 heißt Rang(A,ǫ) = min{rang(b) : A B 2 ǫ} der numerische Rang von A. Die Matrix A heißt numerisch Rang-defizient, falls Rang(A,ǫ) < p = min{m,n} für ǫ = eps A 2. Numerische Mathematik I 270
33 Lösung mit der Singulärwertzerlegung Satz: Rang-k Approximation Satz: Rang-k Approximation Die Matrix A R m n habe die Singulärwertzerlegung A = UΣV T. Wir definieren die abgeschnittene Singulärwertzerlegung für 1 k < r = Rang(A) als A k = k j=1 σ j u j v T j. Dann gilt A A k 2 = min{ A B 2 : Rang(B) k} = σ k+1. Insbesondere gilt Rang(A,ǫ) = k für jedes σ k+1 ǫ < σ k. Numerische Mathematik I 271
34 Lösung mit der Singulärwertzerlegung σ 1... Beweis: Es gilt Rang(A k ) = k und A k = UΣ k V T 0 mit Σ k = σ. k Also ist 0 0 A A k 2 = U T (A A k )V 2 = Σ Σ k 2 = σ k+1, weil σ k+1 der größte Singulärwert von Σ Σ k ist. Sei nun B R m n mit Rang(B) k. Dann ist dim(kern(b)) n k, also dim(span(v 1,...,v k+1 ) Kern(B)) 1. Satz: Rang-k Approximation Wähle x = k+1 j=1 α jv j mit x 2 = 1 und x Kern(B). Dann ist k+1 1/2 1/2 k+1 k+1 (A B)x 2 = Ax 2 = α j σ j u j = α 2 j σj 2 σ k+1 α 2 j. j=1 j=1 j=1 2 }{{} = x 2 =1 Also ist die Spektralnorm von A B größer oder gleich σ k+1. Numerische Mathematik I 272
35 Konditionierung Definition: Konditionszahl rechteckiger Matrizen 6.4 Konditionierung Der Begriff der Konditionszahl wird auf rechteckige Matrizen erweitert Definition: Konditionszahl rechteckiger Matrizen Für A R m n mit Rang(A) = r und Singulärwerten σ 1 σ r > 0 heißt die (Spektral-)Kondition von A. cond 2 (A) = σ 1 σ r Bemerkung: a) Für die Moore-Penrose-Pseudoinverse A + gilt A + 2 = 1 σ r, also ist (fast wie für invertierbare Matrizen) cond 2 (A) = A 2 A + 2. b) Im Fall Rang(A) = n ist cond 2 (A) = cond 2 (A T A) = ( λmax(a T ) 1/2 A) λ min (A T. A) Numerische Mathematik I 273
36 Konditionierung Definition: Konditionszahl rechteckiger Matrizen Zusammenfassung: Methoden zur Lösung des linearen Ausgleichsproblems Ax b 2 min!, A R m n, Rang(A) = n. Methode Lösung Kondition Aufwand Normalengleichung A T Ax = A T b cond(a T A) = (cond(a)) 2 mn2 + n3 2 6 QR-Zerlegung Rx = (q 1,...,q n) T b cond(r) = cond(a) mn 2 n3 3 Singulärwertzerlegung x = n k=1 b,u k σ k v k cond(σ) = cond(a) 2mn 2 +4n 3 Bemerkung: ( ) R a) Zur QR-Zerlegung: Aus A = Q folgt 0 ( R 2 = R = Q 0) T A 2 = A 2 = σ 1. 2 Die Moore-Penrose-Pseudoinverse von A ist A + = (R 1 0)Q T, also R 1 2 = (R 1 0) 2 = A + Q 2 = A + 2 = 1 σ n. b) Als Algorithmus zur Singulärwertzerlegung wird das iterative Verfahren von Golub und Reinsch empfohlen, siehe G. Golub, C. van Loan, Matrix Computations, Abschnitt 8.6, Johns Hopkins University Press; 3. Auflage, Numerische Mathematik I 274
Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])
Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrSingulärwert-Zerlegung
Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder
Mehr4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
Mehr8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen
8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen In diesem Kapitel werden nur endlich dimensionale
MehrComputergestützte Mathematik zur Linearen Algebra
Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
Mehr3 Lineare Gleichungssysteme
3 Lineare Gleichungssysteme 3 Fortsetzung des Matrizenkalküls Als erstes beweisen wir einen einfachen Satz über den Rang von Matrizenprodukten Satz 3 (a) Für Matrizen A : Ã l m, B : Ã m n gilt rang AB
MehrTU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
MehrLineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.
b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrLineare Algebra und Geometrie II, Übungen
Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
Mehr5 Lineare Ausgleichsrechnung
Numerische Mathematik 195 5 Lineare Ausgleichsrechnung 5.1 Die Normalgleichungen Das lineare Ausgleichsproblem (Kleinste-Quadrate-Problem): Gegeben sind A R m n und b R m. Gesucht ist ein Vektor x R n
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
MehrNumerische Verfahren
Numerische Verfahren Jens-Peter M. Zemke zemke@tu-harburg.de Institut für Numerische Simulation Technische Universität Hamburg-Harburg 03.06.2008 TUHH Jens-Peter M. Zemke Numerische Verfahren Lineare Ausgleichsprobleme
Mehr4 Lineare Abbildungen Basisdarstellungen
4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w
MehrD-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie
D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom
Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrKapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n
Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler
MehrKapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41
Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und
MehrReduced-Rank Least Squares Modelle
16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
Mehr= ( n x j x j ) 1 / 2
15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
MehrAufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:
Aufgabe I (4 Punkte Gegeben seien die Matrix und die Menge Zeigen Sie: H := L := {A R 4 4 A HA = H} a L ist bezüglich der Matrizenmultiplikation eine Gruppe b Die Matrizen der Form ( E O, O B wobei E R
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R Käppeli L Herrmann W Wu Herbstsemester Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 9 Finden Sie eine Basis des Lösungsraums L R 5 des linearen
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrLineare Algebra für Ingenieure
TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen
Mehr42 Orthogonalität Motivation Definition: Orthogonalität Beispiel
4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der
MehrDie wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.
Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrMatrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung
Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrKlausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017
Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block
MehrAufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.
Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )
MehrDiagonalisierbarkeit symmetrischer Matrizen
¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren
MehrAufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
Mehr5.4 Basis, Lineare Abhängigkeit
die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)
MehrGliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
MehrKlausurenkurs zum Staatsexamen (WS 2016/17): Lineare Algebra und analytische Geometrie 1
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 206/7): Lineare Algebra und analytische Geometrie. (Herbst 2005, Thema, Aufgabe ) Bestimmen Sie alle reellen Lösungen des folgenden linearen Gleichungssystems:.2
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
(2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m
MehrGaußsche Ausgleichsrechnung
Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrLernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012
Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
Mehr8 Euklidische und unitäre Vektorräume
8 Euklidische und unitäre Vektorräume In diesem Kapitel werden nur endlich dimensionale Vektorräume über à = Ê oder à = betrachtet. Der Querstrich bezeichnet die komplexe Konjugation (z = x+iy, z = x iy).
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrLineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse
Mehr7.3 Unitäre Operatoren
Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
Mehr4.4 Orthogonalisierungsverfahren und die QR-Zerlegung
4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrSerie 8: Online-Test
D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen
Mehr4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrOrthogonale Matrix. Definition 4.19
Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
MehrMusterlösung Serie 21
D-MATH Lineare Algebra II FS 09 Prof. Richard Pink Musterlösung Serie Positiv-Definitheit und Singulärwertzerlegung. Welche der folgenden drei reellen symmetrischen Matrizen sind positiv definit? A : 6
MehrLineare Algebra I Lösungsvorschlag
Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und
MehrRechenaufwand der LR- und LDL T - Zerlegung
6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für
Mehr4 Lineare Ausgleichsrechnung
Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323
Mehr1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4
Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte
Mehr2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2
MehrLineare Algebra. 9. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 9. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching November, 07 Erinnerung Ein Skalarprodukt ist eine Abbildung, : E n E n E, (v, w) v, w n k v kw k so dass:
Mehr9. Übung zur Linearen Algebra II -
9. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:
Mehr