Matrixzerlegungen. Überbestimmte Systeme
|
|
- Curt Steinmann
- vor 6 Jahren
- Abrufe
Transkript
1 Matrixzerlegungen. Überbestimmte Systeme 6. Vorlesung Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. März 2014
2 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme
3 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
4 Die Matrix-Vektor-Multiplikation y = A x Grundlegende Bedeutung einer n m-matrix A Eine Matrix definiert durch y = A x eine lineare Abbildung R m R n. Der Hauptberuf einer Matrix ist, aus einem Vektor einen anderen zu machen Im Allgemeinen ändert die Matrix dadurch Richtung, Betrag (und sogar Dimension) eines Vektors. Matrixzerlegungen spalten die Aktion der Matrix in leichter zu durchblickende Einzelschritte auf. Links-Rechts-Zerlegung A = L R QR-Zerlegung A = Q R Singulärwertzerlegung A = U S V T
5 Die Matrix-Vektor-Multiplikation y = A x Grundlegende Bedeutung einer n m-matrix A Eine Matrix definiert durch y = A x eine lineare Abbildung R m R n. Der Hauptberuf einer Matrix ist, aus einem Vektor einen anderen zu machen Im Allgemeinen ändert die Matrix dadurch Richtung, Betrag (und sogar Dimension) eines Vektors. Matrixzerlegungen spalten die Aktion der Matrix in leichter zu durchblickende Einzelschritte auf. Links-Rechts-Zerlegung A = L R QR-Zerlegung A = Q R Singulärwertzerlegung A = U S V T
6 Die Matrix-Vektor-Multiplikation y = A x Grundlegende Bedeutung einer n m-matrix A Eine Matrix definiert durch y = A x eine lineare Abbildung R m R n. Der Hauptberuf einer Matrix ist, aus einem Vektor einen anderen zu machen Im Allgemeinen ändert die Matrix dadurch Richtung, Betrag (und sogar Dimension) eines Vektors. Matrixzerlegungen spalten die Aktion der Matrix in leichter zu durchblickende Einzelschritte auf. Links-Rechts-Zerlegung A = L R QR-Zerlegung A = Q R Singulärwertzerlegung A = U S V T
7 Wiederholung: LR-Zerlegung A = L R Das Gaußsche Eliminationsverfahren ohne Pivotisierung faktorisiert (wenn es nicht abbricht) eine Matrix A in ein Produkt A = LR aus einer linken unteren Dreiecksmatrix L und einer rechten oberen Dreiecksmatrix R =
8 LR-Zerlegung allgemein Jede quadratische oder auch rechteckige Matrix lässt sich in ein Produkt der Form A = L R zerlegen. Dabei ist L eine links-unten-dreiecksmatrix mit 1-Diagonale (zumindest, wenn man die Zeilen von L passend umordnet) R eine obere Dreiecksmatrix MATLAB: [L U]=lu(A) zerlegt beispielsweise [ ] [ ] [ ] =
9 Anwendungen zur LR-Zerlegung lineare Gleichungssysteme Determinante Inverse MATLAB-Hilfe: Most of the algorithms for computing LU factorization are variants of Gaussian elimination. The factorization is a key step in obtaining the inverse with inv and the determinant with det. It is also the basis for the linear equation solution obtained with \
10 Orthogonale Matrizen Transponierte ist zugleich Inverse Definition Eine quadratische Matrix Q heißt orthogonal, wenn gilt Q T Q = I Die Spalten von Q sind Einheitsvektoren und paarweise orthogonal. Es gilt dann auch Q Q T = I Die Zeilen von Q sind ebenfalls Einheitsvektoren und paarweise orthogonal.
11 Orthogonale Matrizen: Beispiele P = 1 [ ] 1 1, Q = } Zweidimensionale orthogonale Matrizen mit Determinante 1 Drei- { } ebenen entsprechen Drehungen räumlichen
12 Fundamentale Eigenschaft Multiplikation eines Vektors mit einer orthogonalen Matrix lässt die 2-Norm des Vektors unverändert Multiplikation eines Vektors mit einer orthogonalen Matrix dreht (oder spiegelt) den Vektor, lässt aber seine Länge (2-Norm) unverändert. x 2 = Q x 2
13 QR-Zerlegung Satz Jede reelle n m Matrix lässt sich in ein Produkt der Form A = Q R mit einer orthogonalen n n Matrix Q und einer n m oberen Dreiecksmatrix R zerlegen. MATLAB: [Q R]=qr(A) Anwendungen: Eigenwert-Berechnung, überbestimmte Systeme
14 Singulärwert-Zerlegung Singular Value Decomposition, SVD Eine beliebige reelle n m Matrix lässt sich in ein Produkt der Form A = U S V T mit einer orthogonalen n n Matrix U, einer n m-diagonalmatrix S und einer orthogonalen m m Matrix V zerlegen. Die Diagonalwerte von S heißen die Singulärwerte von A. MATLAB: [U S V]=svd(A) Anwendungen Rang einer numerischen Matrix, Pseudoinverse, Über- und unterbestimmte Systeme etc. etc.
15 Singulärwert-Zerlegung Anschauliche Interpretation Die Singulärwertzerlegung A = U S V T zerlegt die Multiplikation A x in drei Einzelschritte: a = V T x dreht den Vektor x b = S a skaliert die Komponenten von a y = U b dreht den Vektor b Abgesehen von den beiden Drehungen beschreibt die Diagonalmatrix S, was die die Matrix A eigentlich tut. In geeignet gedrehten Koordinaten wird aus A eine Diagonalmatrix S. Der richtige Dreh vereinfacht viele Aufgaben.
16 Singulärwert-Zerlegung Anschauliche Interpretation Die Singulärwertzerlegung A = U S V T zerlegt die Multiplikation A x in drei Einzelschritte: a = V T x dreht den Vektor x b = S a skaliert die Komponenten von a y = U b dreht den Vektor b Abgesehen von den beiden Drehungen beschreibt die Diagonalmatrix S, was die die Matrix A eigentlich tut. In geeignet gedrehten Koordinaten wird aus A eine Diagonalmatrix S. Der richtige Dreh vereinfacht viele Aufgaben.
17 Diagonalisierung symmetrischer Matrizen Ein Spezialfall von SVD Jede symmetrische Matrix A lässt sich in der Form A = Q D Q T zerlegen; dabei ist Q eine Orthogonal- und D eine Diagonalmatrix Die Bedeutung dieser Zerlegung diskutieren wir genauer im Kapitel Eigenwerte und Eigenvektoren.
18 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
19 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
20 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
21 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
22 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
23 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
24 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...
25 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...
26 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...
27 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...
28 Geometrische Interpretation Zeilen des Gleichungssystems sind Geradengleichungen m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Den drei Gleichungen entsprechen drei Gerade im R 2. Kein gemeinsamer Schnittpunkt! In der Mitte des Fehlerdreiecks, im Punkt (4/3; 7/3) ist die Summe der Fehlerquadrate minimal. m m 1 (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min!
29 Geometrische Interpretation Zeilen des Gleichungssystems sind Geradengleichungen m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Den drei Gleichungen entsprechen drei Gerade im R 2. Kein gemeinsamer Schnittpunkt! In der Mitte des Fehlerdreiecks, im Punkt (4/3; 7/3) ist die Summe der Fehlerquadrate minimal. m m 1 (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min!
30 Geometrische Interpretation Zeilen des Gleichungssystems sind Geradengleichungen m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Den drei Gleichungen entsprechen drei Gerade im R 2. Kein gemeinsamer Schnittpunkt! In der Mitte des Fehlerdreiecks, im Punkt (4/3; 7/3) ist die Summe der Fehlerquadrate minimal. m m 1 (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min!
31 Methode der kleinsten Fehlerquadrate Suche m 1,m 2 so dass (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min! Differenziere nach m 1 und m 2, setze Ableitungen gleich Null 2m 1 + m 2 = 5 m 1 + 2m 2 = 6 Führt man diese Rechnung allgemein für ein überbestimmtes System Ax = b durch, erhält man die Normalengleichungen A T Ax = A T b. [ ] 1 0 ] [ ] hier: 0 1 [ m = m C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
32 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...
33 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...
34 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...
35 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...
36 Interpretation von Ax = b Zwei Möglichkeiten Im Raum der x-vektoren Jede Zeile der Matrix ist ein Normalvektor in einer Geradengleichung für x R 2, Ebenengleichung für x R 3,... Lösung x ist Schnittpunkt aller Geraden (Ebenen, Hyperebenen...) Im Raum der b-vektoren Jede Spalte der Matrix A ist ein Vektor. Das Produkt Ax ist eine Linearkombination der Spaltenvektoren. Lösung x gibt genau die Koeffizienten an, mit denen sich b als Linearkombination der Spaltenvektoren von A erreichen lässt.
37 Interpretation von Ax = b Zwei Möglichkeiten Im Raum der x-vektoren Jede Zeile der Matrix ist ein Normalvektor in einer Geradengleichung für x R 2, Ebenengleichung für x R 3,... Lösung x ist Schnittpunkt aller Geraden (Ebenen, Hyperebenen...) Im Raum der b-vektoren Jede Spalte der Matrix A ist ein Vektor. Das Produkt Ax ist eine Linearkombination der Spaltenvektoren. Lösung x gibt genau die Koeffizienten an, mit denen sich b als Linearkombination der Spaltenvektoren von A erreichen lässt.
38 Interpretation von Ax = b Zwei Möglichkeiten Im Raum der x-vektoren Jede Zeile der Matrix ist ein Normalvektor in einer Geradengleichung für x R 2, Ebenengleichung für x R 3,... Lösung x ist Schnittpunkt aller Geraden (Ebenen, Hyperebenen...) Im Raum der b-vektoren Jede Spalte der Matrix A ist ein Vektor. Das Produkt Ax ist eine Linearkombination der Spaltenvektoren. Lösung x gibt genau die Koeffizienten an, mit denen sich b als Linearkombination der Spaltenvektoren von A erreichen lässt.
39 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =
40 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =
41 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =
42 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =
43 Orthogonalitätsbedingung im Bildraum Der Ausdruck 1 0 ] 0 1 [ m1 m entspricht der Parameterdarstellung eine Ebene im R 3. Der Punkt (1; 2; 4) liegt nicht auf dieser Ebene. Der Residuenvektor r = ] 0 1 [ m1 m hat minimale Länge, wenn er auf die Ebene normal steht. 2 0
44 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu finden... Drehen wir vorsichtig das Koordinatensystem... bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b
45 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu finden... Drehen wir vorsichtig das Koordinatensystem... bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b
46 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu 4 finden... 3 Drehen wir vorsichtig das Koordinatensystem... 2 bis die zwei Vektoren in 1 der xy-ebene liegen. Die Lösung liegt nun genau 0 senkrecht unter b
47 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit 0 minimalem Abstand von 3 b nicht so leicht zu finden... 2 Drehen wir vorsichtig das 1 Koordinatensystem... bis die zwei Vektoren in 0 der xy-ebene liegen. Die 0 Lösung liegt nun genau senkrecht unter b
48 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit 3 minimalem Abstand von 2 b nicht so leicht zu finden... 1 Drehen wir vorsichtig das 0 Koordinatensystem... 0 bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b
49 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu finden... Drehen wir vorsichtig das Koordinatensystem... bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b Suche eine orthogonale Matrix Q, welche das Gleichungssystem in einen einfacheren Bildraum dreht!
50 Beispiel von vorhin Die QR-Zerlegung von A liefert die gewünschte Drehmatrix! Zerlegung A = QR : Transformiertes System Rx = Q T b : Drehung mit Q anschaulich interpretiert = / / /2 ] 5/ 0 3/2 [ 2 m1 = 7/ 6 m / 3 QR-Zerlegung transformiert überbestimmtes System in lösbaren Anteil und unlösbaren Rest Bestmögliche Lösung: unlösbare Gleichungen weglassen, die anderen exakt lösen.
51 QR-Zerlegung löst (überbestimmte) Gleichungssysteme Zur Lösung von Ax = b führt man QR-Zerlegung durch und löst das Dreieckssystem Rx = Q T b durch Substitution. Begründung Ax = b Q Rx = b Q T Q T Q Rx = Q T b Rx = Q T b Bei n n-systemen setzt man diese Methode normalerweise nicht ein, weil sie rechenaufwändiger als die LR-Zerlegung ist. Bei n m-systemen (n > m) liefern die ersten m Zeilen von R die kleinste-quadrate-lösung. Lösung überbestimmte Systeme mittels Normalengleichungen ist anfälliger für Rundungsfehler als Lösung durch QR-Zerlegung. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
52 Überbestimmte Systeme A x = b: QR-Zerlegung Aufgabe Suche x so, dass Residuums-2-Norm r 2 minimal wird Vorgangsweise r = b A x min! Zerlege A = Q R Multiplikation von r mit Q T lässt 2-Norm unverändert. Wandle um: r = Q T r = Q T (b A x) = Q T b R x Für das transformierte System ist die Minimallösung offensichtlich... C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
53 Angenommen, das überbestimmte System besteht aus m Unbekannten und n = m+k Gleichungen (k > 0). Dann ist R eine n m-matrix, deren letzte k Zeilen lauter Nullen enthalten. Die letzten k Zeilen des Residuumsvektors hängen nicht von x ab. Löse die ersten m Gleichungen des Systems R x = Q T b exakt (wenn möglich): Diese Gleichungen liefern keinen Beitrag zu Residuum. Die restlichen k Gleichungen hängen von x nicht ab. Keine Wahl von x kann den Beitrag dieser Gleichungen zum Residuum ändern. Daher ist die gewählte Lösung optimal für R x = Q T b Weil Transformation die Norm nicht beeinflusst, ist diese Lösung auch optimale Lösung von A x = b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
54 Überbestimmte Systeme A x = b: SVD-Zerlegung Aufgabe Suche x so, dass Residuums-2-Norm r 2 minimal wird Vorgangsweise r = b A x min! Zerlege A = U S V T, substituiere y = V T x. Multiplikation von r mit U T lässt 2-Norm unverändert. Wandle um: r = U T r = U T b S V T x = Q T b S y Für das gedrehte System ist die Minimallösung völlig offensichtlich... (Zahlenbeispiel im Skriptum) C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
55 Übersicht der Verfahren für überbestimmte Systeme A x = b Normalengleichungen A T A = A T b Klassischer Lösungsweg. Anfällig für Daten- und Rundungsfehler (schlechte Konditionszahl). QR-Zerlegung Standardverfahren zur numerischen Lösung. Algebraisch äquivalent zu Norm.gleichungen, aber numerisch weniger fehlerempfindlich. MATLAB x = A\b verwendet bei überbestimmten Systemen automatisch QR-Zerlegung Sonderfälle (rang A n) Überbestimmte Systeme, die trotzdem exakt lösbar sind oder eine Schar von (ex. oder kl. Quadr.) Lösungen haben. Normalengleichungen können versagen. Singulärwert-Zerlegung. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
56 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
57 Lineares Modell in zwei Variablen Anpassen einer Ausgleichs-Ebene: Beispiel aus der Matlab-Hilfe Angenommen, eine Größe y hängt von zwei Parametern x 1 und x 2 ab. Folgende Messwerte liegen vor: x 1 : x 2 : y : Wir nehmen ein lineares Modell y = a 0 +a 1 x 1 +a 2 x 2 an und setzen die gegebenen Datentripel ein führt auf ein System von 6 linearen Gleichungen in den 3 unbekannten Koeffizienten a 0,a 1,a 2. Kleinste-Quadrate-Lösung liefert Ebene mit bestmöglicher Anpassung an Daten
58 Lineares Modell in zwei Variablen Beispiel: Magnetische Deklinationswerte in Österreich Wien 3 00 Eisenstadt 3 02 St.Pölten 2 54 Graz 2 47 Linz 2 33 Klagenfurt 2 30 Salzburg 2 15 Innsbruck 1 53 Bregenz 1 24 Daten: ZAMG Kleinste-Quadrate-Anpassung liefert Modell: δ = λ φ
59 Überbestimmte nichtlineare Systeme Beispiel: Standortbestimmung durch Trilateration Die Abstände von drei festen Punkten A,B,C zu einem unbekannten Punkt X sind (etwas ungenau) bekannt. Gesucht ist eine möglichst gute Positionsbestimmung. (x1 1) 2 +(x 2 1) 2 = 6 (x1 8) 2 +(x 2 4) 2 = C d c =4.2 d b =3.6 (x1 5) 2 +(x 2 8) 2 = d a =6 4 X B 2 Den drei Gleichungen entsprechen drei Kreise im R 2. Sie haben keinen gemeinsamen Schnittpunkt. 1 A
60 Überbestimmte nichtlineare Systeme Lösung durch Linearisierung und Iteration f(x) = b, x R n, f(x),b R m, m > n Ausgehend von einem Startvektor x (0) bestimmt man eine Korrektur x aus der Lösung des überbestimmten linearen Systems mit der Jacobimatrix D f D f x = b f(x) und gewinnt eine verbesserte Lösung x (1) = x (0) + x. Für die Konvergenz der Iteration kann Unterrelaxation (Dämpfung) notwendig sein: x (n+1) = x (n) +ω x mit Unterrelaxationsfaktor 0 < ω 1. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
61 Überbestimmte nichtlineare Systeme Lösung durch Linearisierung und Iteration f(x) = b, x R n, f(x),b R m, m > n Ausgehend von einem Startvektor x (0) bestimmt man eine Korrektur x aus der Lösung des überbestimmten linearen Systems mit der Jacobimatrix D f D f x = b f(x) und gewinnt eine verbesserte Lösung x (1) = x (0) + x. Für die Konvergenz der Iteration kann Unterrelaxation (Dämpfung) notwendig sein: x (n+1) = x (n) +ω x mit Unterrelaxationsfaktor 0 < ω 1. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36
Überbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrMatrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung
Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten
MehrMatrix-Zerlegungen, überbestimmte Systeme, iterative Löser
Matrix-Zerlegungen, überbestimmte Systeme, iterative Löser 5. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 22. März 2018 Matrix-Zerlegungen, überbestimmte
MehrÜberbestimmte Gleichungssysteme, Regression
Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte
MehrGliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
MehrLineare Gleichungssysteme II
Lineare Gleichungssysteme II 5. Vorlesung 70 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 2. April 206 Lineare Gleichungssysteme II Lösbarkeit, Fehlerempfindlichkeit
MehrÜberbestimmte Systeme, Approximation
Überbestimmte Systeme, Approximation 7. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. April 2014 Gliederung 1 Überbestimmte Systeme Wiederholung:
MehrÜberbestimmte Systeme, Datenmodelle, Polynomiale Regression
Überbestimmte Systeme, Datenmodelle, Polynomiale Regression 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 26. April 2018 Überbestimmte Systeme,
MehrMathematik in den technischen Wissenschaften
Mathematik in den technischen Wissenschaften eine Themen-Auswahl Clemens Brand Montanuniversität Leoben AG-Tagung AHS Mathematik St. Pölten, 19. März 2014 Gliederung 1 Numerische Lineare Algebra Überbestimmte
MehrDatenmodelle, Regression
Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression
Mehr2x + y = 19 4x + 4y = 13 4x y = 17
170 00 Übungen zu Numerische Methoden I Sechste Übungseinheit 1., 1. und 16. Mai 2012 Inhalt der sechsten Übungseinheit: Überbestimmte lineare Systeme Isolinien-Diagramme Lineare Datenmodelle Überbestimmte
MehrÜberbestimmte Systeme
5 Überbestimmte Systeme Ein lineares Gleichungssystem Ax = b mit mehr Gleichungen als Unbekannten heißt überbestimmt. In so einem Fall ist A eine n m-matrix mit n > m, also rechteckig, mit mehr Zeilen
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,
MehrLineare Gleichungssysteme: direkte Verfahren
Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrFinden Sie für diese Daten eine Anpassung der Form. t(d,t 0 ) = a 1 +a 2 d+a 3 T 0 +a 4 dt 0
170 00 Übungen zu Numerische Methoden I Siebente Übungseinheit 16., 17. und 18. Mai 2011 Inhalt der siebten Übungseinheit: Lineare Datenmodelle überbestimmte nichtlineare Systeme Basic Fitting Tool 7.1
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 6. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. März 2010 Nachträge Gliederung Nachträge it Nachträge Wichtige Begriffe Eine Zusammenfassung der Folien 8 16 der letzten
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrLineares Gleichungssystem - Vertiefung
Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrD. Vierte Übungseinheit
D. Vierte Übungseinheit Inhalt der vierten Übungseinheit: Matrix-Vektor-Multiplikation Bergabstrich löst Gleichungssysteme Eindeutig, nicht eindeutig und gar nicht lösbare Systeme Eliminationsverfahren
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
Mehr4. Großübung. Lösung linearer Gleichungssysteme
4. Großübung Lösung linearer Gleichungssysteme Gesucht x, x, x 3, x 4 R, sodass gilt. mit A R 4 4, x R 4, b R 4 x x + 3x 3 + x 4 = 5 6x 3x 7x x 4 = 5 4x + 4x + 5x 3 5x 4 = 3 8x + x + x 3 + x 4 = 8 3 x
MehrFixpunkt-Iterationen
Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip
MehrÜbungsblatt
Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen
MehrSerie 8: Online-Test
D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen
MehrLineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter
MehrKlausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017
Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block
MehrD-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11
D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. In dieser Aufgabe wollen wir die Parameter einer gewissen Modellfunktion aus ein paar gemessenen Werten bestimmen. Das Modell
MehrComputergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!
Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen
MehrSingulärwertzerlegung
LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom
Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch
MehrProbeklausur zu Mathematik 2 für Informatik
Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die
MehrSerie 8: Fakultativer Online-Test
Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrKlausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n
MehrGaußsche Ausgleichsrechnung
Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrMatrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I
Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrLineare Gleichungssysteme und die Methode der kleinsten Quadrate
Ludwig-Maximilians-Universität München Department für Computerlinguistik WS 2010/11 Hauptseminar Matrixmethoden in Textmining Dozent: Prof. Dr. Klaus Schulz Referentin: Sarah Söhlemann Lineare Gleichungssysteme
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
MehrFixpunkt-Iterationen
Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. März 2016 Nichtlineare Gleichungen, Fixpunkt-Iterationen 1 Wiederholung Aufgabentypen
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 11. Aufgabe ETH Zürich D-MATH. Dr. V. Gradinaru D. Devaud. Herbstsemester 2015
Dr. V. Gradinaru D. Devaud Herbstsemester 015 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 11 Aufgabe 11.1 11.1a) Sei die QR-Zerlegung der m n Matrix A (m > n) gegeben
MehrI) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i
MehrGrundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015
Matrizenrechnung Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Matrizenrechnung Übersicht Grundsätzliches 1 Grundsätzliches Matrixbegriff Rechenregeln Spezielle Matrizen 2 Matrizenrechnung Determinanten
MehrSkalarprodukte (Teschl/Teschl Kap. 13)
Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +
MehrIV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen
Gliederung I. Motivation II. Lesen mathematischer Symbole III. Wissenschaftliche Argumentation IV. Matrizenrechnung i. Rechenoperationen mit Matrizen ii. iii. iv. Inverse einer Matrize Determinante Definitheit
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A.
Dr V Gradinaru D Devaud A Hiltebrand Herbstsemester 2014 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 91 91a) Sei A eine n n-matrix Das Gleichungssystem Ax
Mehra ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung
MehrKapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n
Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler
MehrKapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41
Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und
MehrMathematik I für MB und ME
Mathematik I für MB und ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 28/29 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
MehrMathematik I für MB/ME
Mathematik I für MB/ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 25/26 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrMischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung: Woche vom (Lin.Alg.
Übungsaufgaben 12. Übung: Woche vom 16. 1.-20. 1. 2017 (Lin.Alg. I): Heft Ü 3: 2.1.11; 2.1.8; 2.1.17; 2.2.1; 2.2.3; 1.1.1; 1.1.4; Hinweis 1: 3. Test (Integration, analyt. Geom.) ist seit 9.1. freigeschalten
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrKapitel 3 Lineare Algebra
Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND
MehrLineare Gleichungen. Mathematik-Repetitorium. 3.1 Eine Unbekannte. 3.2 Zwei oder drei Unbekannte. 3.3 Allgemeine lineare Gleichungssysteme
Lineare Gleichungen 3.1 Eine Unbekannte 3.2 Zwei oder drei Unbekannte 3.3 Allgemeine lineare Gleichungssysteme Lineare Gleichungen 1 Vorbemerkung zu Kapitel 1 Gleichungen (Unbekannte) (Variablen, Parameter)
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrLineare Algebra und Numerische Mathematik D-BAUG. Sommer 2012 Prof. H.-R. Künsch
b Prüfung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice: Sommer Prof. H.-R. Künsch Gegeben sei die folgende Matrix A = 4. 4 (a) x AA T ist eine 4 4 Matrix mit ( AA T) = 4. AA T ist
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud.
Dr. V. Gradinaru D. Devaud Herbstsemester 15 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 1 Aufgabe 1.1 1.1a) Sei A eine n n-matrix. Das Gleichungssystem Ax = b sei
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).
MehrNumerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)
Lehrstuhl für Angewandte Mathematik Montanuniversität Leoben 70 004 Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan. 207 2:00-4:00 (20 min) Name Matrikelnummer Mündliche Prüfung: Bitte markieren
Mehr9. Vorlesung Lineare Algebra, SVD und LSI
9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
MehrKern und Bild einer Matrix
Kern und Bild einer Matrix. Motivation Zur theoretischen Beschreibung der Abbildungen durch Matrizen wurden Begriffe eingeführt, die eine "elegante" Formulierung erlauben. In Linearen Gleichungssystemen
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrLineares Gleichungssystem
Lineares Gleichungssystem Ein System von m linearen Gleichungen in n Unbekannten besteht aus einer Menge von algebraischen Relationen der Form n a ij x j = b i, i =,...,m, j= wobei a ij R, i m, j n, die
Mehr6. Vorlesung. Rechnen mit Matrizen.
6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt
MehrD-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11
D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. Wir betrachten das überbestimmte Gleichungssystem Ax = y mit 1 1 1 1 A := 1 1 0 1 0 1, y := 2 3 0 0 1 4 Berechnen Sie die
MehrMatrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie
Regina Gellrich Carsten Gellrich Matrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie Mit zahlreichen Abbildungen, Aufgaben mit Lösungen und durchgerechneten Beispielen
Mehr++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1
Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die
MehrHilfsblätter Lineare Algebra
Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
MehrUntersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y
Aufgabe 1 Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. (( )) 3x x (a) Sei f : R 2 R 3 mit f = 2y + x y x y ( ) 4 (b) Sei f : R R 2 mit f(x) = x + 1 (( )) ( ) x x y (c) Sei
MehrName: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1
Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: 1 1 0 2 b 1 1 2 4 1 1 4 6 x = 1 1. 2 2 2a 2 3a 1 (a) Bringen Sie das lineare Gleichungssystem auf Treppenform. (b) Für welche
Mehr= 9 10 k = 10
2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund
MehrCramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...
Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und
MehrSerie 8: Online-Test
D-MAVT Lineare Algebra I HS 018 Prof Dr N Hungerbühler Serie 8: Online-Test Schicken Sie Ihre Lösung bis spätestens Freitag, den 3 November um 14:00 Uhr ab Diese Serie besteht nur aus Multiple-Choice-Aufgaben
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung
MehrKapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])
Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu
Mehr