Matrixzerlegungen. Überbestimmte Systeme

Größe: px
Ab Seite anzeigen:

Download "Matrixzerlegungen. Überbestimmte Systeme"

Transkript

1 Matrixzerlegungen. Überbestimmte Systeme 6. Vorlesung Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. März 2014

2 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme

3 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

4 Die Matrix-Vektor-Multiplikation y = A x Grundlegende Bedeutung einer n m-matrix A Eine Matrix definiert durch y = A x eine lineare Abbildung R m R n. Der Hauptberuf einer Matrix ist, aus einem Vektor einen anderen zu machen Im Allgemeinen ändert die Matrix dadurch Richtung, Betrag (und sogar Dimension) eines Vektors. Matrixzerlegungen spalten die Aktion der Matrix in leichter zu durchblickende Einzelschritte auf. Links-Rechts-Zerlegung A = L R QR-Zerlegung A = Q R Singulärwertzerlegung A = U S V T

5 Die Matrix-Vektor-Multiplikation y = A x Grundlegende Bedeutung einer n m-matrix A Eine Matrix definiert durch y = A x eine lineare Abbildung R m R n. Der Hauptberuf einer Matrix ist, aus einem Vektor einen anderen zu machen Im Allgemeinen ändert die Matrix dadurch Richtung, Betrag (und sogar Dimension) eines Vektors. Matrixzerlegungen spalten die Aktion der Matrix in leichter zu durchblickende Einzelschritte auf. Links-Rechts-Zerlegung A = L R QR-Zerlegung A = Q R Singulärwertzerlegung A = U S V T

6 Die Matrix-Vektor-Multiplikation y = A x Grundlegende Bedeutung einer n m-matrix A Eine Matrix definiert durch y = A x eine lineare Abbildung R m R n. Der Hauptberuf einer Matrix ist, aus einem Vektor einen anderen zu machen Im Allgemeinen ändert die Matrix dadurch Richtung, Betrag (und sogar Dimension) eines Vektors. Matrixzerlegungen spalten die Aktion der Matrix in leichter zu durchblickende Einzelschritte auf. Links-Rechts-Zerlegung A = L R QR-Zerlegung A = Q R Singulärwertzerlegung A = U S V T

7 Wiederholung: LR-Zerlegung A = L R Das Gaußsche Eliminationsverfahren ohne Pivotisierung faktorisiert (wenn es nicht abbricht) eine Matrix A in ein Produkt A = LR aus einer linken unteren Dreiecksmatrix L und einer rechten oberen Dreiecksmatrix R =

8 LR-Zerlegung allgemein Jede quadratische oder auch rechteckige Matrix lässt sich in ein Produkt der Form A = L R zerlegen. Dabei ist L eine links-unten-dreiecksmatrix mit 1-Diagonale (zumindest, wenn man die Zeilen von L passend umordnet) R eine obere Dreiecksmatrix MATLAB: [L U]=lu(A) zerlegt beispielsweise [ ] [ ] [ ] =

9 Anwendungen zur LR-Zerlegung lineare Gleichungssysteme Determinante Inverse MATLAB-Hilfe: Most of the algorithms for computing LU factorization are variants of Gaussian elimination. The factorization is a key step in obtaining the inverse with inv and the determinant with det. It is also the basis for the linear equation solution obtained with \

10 Orthogonale Matrizen Transponierte ist zugleich Inverse Definition Eine quadratische Matrix Q heißt orthogonal, wenn gilt Q T Q = I Die Spalten von Q sind Einheitsvektoren und paarweise orthogonal. Es gilt dann auch Q Q T = I Die Zeilen von Q sind ebenfalls Einheitsvektoren und paarweise orthogonal.

11 Orthogonale Matrizen: Beispiele P = 1 [ ] 1 1, Q = } Zweidimensionale orthogonale Matrizen mit Determinante 1 Drei- { } ebenen entsprechen Drehungen räumlichen

12 Fundamentale Eigenschaft Multiplikation eines Vektors mit einer orthogonalen Matrix lässt die 2-Norm des Vektors unverändert Multiplikation eines Vektors mit einer orthogonalen Matrix dreht (oder spiegelt) den Vektor, lässt aber seine Länge (2-Norm) unverändert. x 2 = Q x 2

13 QR-Zerlegung Satz Jede reelle n m Matrix lässt sich in ein Produkt der Form A = Q R mit einer orthogonalen n n Matrix Q und einer n m oberen Dreiecksmatrix R zerlegen. MATLAB: [Q R]=qr(A) Anwendungen: Eigenwert-Berechnung, überbestimmte Systeme

14 Singulärwert-Zerlegung Singular Value Decomposition, SVD Eine beliebige reelle n m Matrix lässt sich in ein Produkt der Form A = U S V T mit einer orthogonalen n n Matrix U, einer n m-diagonalmatrix S und einer orthogonalen m m Matrix V zerlegen. Die Diagonalwerte von S heißen die Singulärwerte von A. MATLAB: [U S V]=svd(A) Anwendungen Rang einer numerischen Matrix, Pseudoinverse, Über- und unterbestimmte Systeme etc. etc.

15 Singulärwert-Zerlegung Anschauliche Interpretation Die Singulärwertzerlegung A = U S V T zerlegt die Multiplikation A x in drei Einzelschritte: a = V T x dreht den Vektor x b = S a skaliert die Komponenten von a y = U b dreht den Vektor b Abgesehen von den beiden Drehungen beschreibt die Diagonalmatrix S, was die die Matrix A eigentlich tut. In geeignet gedrehten Koordinaten wird aus A eine Diagonalmatrix S. Der richtige Dreh vereinfacht viele Aufgaben.

16 Singulärwert-Zerlegung Anschauliche Interpretation Die Singulärwertzerlegung A = U S V T zerlegt die Multiplikation A x in drei Einzelschritte: a = V T x dreht den Vektor x b = S a skaliert die Komponenten von a y = U b dreht den Vektor b Abgesehen von den beiden Drehungen beschreibt die Diagonalmatrix S, was die die Matrix A eigentlich tut. In geeignet gedrehten Koordinaten wird aus A eine Diagonalmatrix S. Der richtige Dreh vereinfacht viele Aufgaben.

17 Diagonalisierung symmetrischer Matrizen Ein Spezialfall von SVD Jede symmetrische Matrix A lässt sich in der Form A = Q D Q T zerlegen; dabei ist Q eine Orthogonal- und D eine Diagonalmatrix Die Bedeutung dieser Zerlegung diskutieren wir genauer im Kapitel Eigenwerte und Eigenvektoren.

18 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

19 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

20 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

21 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

22 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

23 Überbestimmte Systeme Ein lineares Gleichungssystem mit mehr Gleichungen als Unbekannten heißt überbestimmt x = 1 y = 2 x + y = [ ] x = y Allgemein: ein überbestimmtes lineares System Ax = b mit einer m n-matrix A, wobei m > n In der Regel hat ein solches System keine (exakte) Lösung. (Kompromiss-)Lösung sucht möglichst kleinen Residuenvektor r = b Ax Klassische kleinste-quadrate-lösung mit Normalengleichungen A T Ax = A T b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

24 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...

25 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...

26 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...

27 Beispiel: Wägung zweier Massen Zwei Massen m 1,m 2 werden zuerst einzeln, dann gemeinsam abgewogen. Die Messwerte sind: m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Lösungsvorschläge? 0 Letzte Gleichung weglassen: Fehler r = 0 1 0,5 Fehler aufteilen, etwa m 1 = 1,5;m 2 = 2,5 r = 0,5 0 oder noch fairer auf die drei Komponenten aufteilen...

28 Geometrische Interpretation Zeilen des Gleichungssystems sind Geradengleichungen m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Den drei Gleichungen entsprechen drei Gerade im R 2. Kein gemeinsamer Schnittpunkt! In der Mitte des Fehlerdreiecks, im Punkt (4/3; 7/3) ist die Summe der Fehlerquadrate minimal. m m 1 (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min!

29 Geometrische Interpretation Zeilen des Gleichungssystems sind Geradengleichungen m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Den drei Gleichungen entsprechen drei Gerade im R 2. Kein gemeinsamer Schnittpunkt! In der Mitte des Fehlerdreiecks, im Punkt (4/3; 7/3) ist die Summe der Fehlerquadrate minimal. m m 1 (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min!

30 Geometrische Interpretation Zeilen des Gleichungssystems sind Geradengleichungen m 1 = 1 m 2 = 2 m 1 +m 2 = 4 Den drei Gleichungen entsprechen drei Gerade im R 2. Kein gemeinsamer Schnittpunkt! In der Mitte des Fehlerdreiecks, im Punkt (4/3; 7/3) ist die Summe der Fehlerquadrate minimal. m m 1 (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min!

31 Methode der kleinsten Fehlerquadrate Suche m 1,m 2 so dass (m 1 1) 2 +(m 2 2) 2 +(m 1 +m 2 4) 2 min! Differenziere nach m 1 und m 2, setze Ableitungen gleich Null 2m 1 + m 2 = 5 m 1 + 2m 2 = 6 Führt man diese Rechnung allgemein für ein überbestimmtes System Ax = b durch, erhält man die Normalengleichungen A T Ax = A T b. [ ] 1 0 ] [ ] hier: 0 1 [ m = m C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

32 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...

33 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...

34 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...

35 Zwei mögliche geometrische Interpretationen Im Raum R n der Lösungsvektoren Gleichungen entsprechen Geraden (Ebenen, Hyperebenen) Optimal-Lösung im Schnittbereich (Fehlerdreieck, -Polyeder,...) Nachteil: Mitte des Fehlerdreiecks nicht exakt definiert. Im Raum R m der rechten-seite-vektoren Matrix mal Vektor ergibt Linearkombination der Spaltenvektoren Bei zu wenig Spaltenvektoren lässt sich nicht jede rechte Seite als Linearkombination erreichen. Der geringste Abstand zwischen Linearkombination und rechter Seite ist Normalabstand. Eine Folie noch, dann kommt eh gleich ein Beispiel...

36 Interpretation von Ax = b Zwei Möglichkeiten Im Raum der x-vektoren Jede Zeile der Matrix ist ein Normalvektor in einer Geradengleichung für x R 2, Ebenengleichung für x R 3,... Lösung x ist Schnittpunkt aller Geraden (Ebenen, Hyperebenen...) Im Raum der b-vektoren Jede Spalte der Matrix A ist ein Vektor. Das Produkt Ax ist eine Linearkombination der Spaltenvektoren. Lösung x gibt genau die Koeffizienten an, mit denen sich b als Linearkombination der Spaltenvektoren von A erreichen lässt.

37 Interpretation von Ax = b Zwei Möglichkeiten Im Raum der x-vektoren Jede Zeile der Matrix ist ein Normalvektor in einer Geradengleichung für x R 2, Ebenengleichung für x R 3,... Lösung x ist Schnittpunkt aller Geraden (Ebenen, Hyperebenen...) Im Raum der b-vektoren Jede Spalte der Matrix A ist ein Vektor. Das Produkt Ax ist eine Linearkombination der Spaltenvektoren. Lösung x gibt genau die Koeffizienten an, mit denen sich b als Linearkombination der Spaltenvektoren von A erreichen lässt.

38 Interpretation von Ax = b Zwei Möglichkeiten Im Raum der x-vektoren Jede Zeile der Matrix ist ein Normalvektor in einer Geradengleichung für x R 2, Ebenengleichung für x R 3,... Lösung x ist Schnittpunkt aller Geraden (Ebenen, Hyperebenen...) Im Raum der b-vektoren Jede Spalte der Matrix A ist ein Vektor. Das Produkt Ax ist eine Linearkombination der Spaltenvektoren. Lösung x gibt genau die Koeffizienten an, mit denen sich b als Linearkombination der Spaltenvektoren von A erreichen lässt.

39 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =

40 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =

41 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =

42 Beispiel: Farbmischung mit RGB-Vektoren Welches Grau gibt Rot und Blau? Gegeben: zwei Farbtöne 200 RGB RGB Gesucht: neutrale Grauschattierung RGB x y = Optimale Lösung erreicht , ,674 =

43 Orthogonalitätsbedingung im Bildraum Der Ausdruck 1 0 ] 0 1 [ m1 m entspricht der Parameterdarstellung eine Ebene im R 3. Der Punkt (1; 2; 4) liegt nicht auf dieser Ebene. Der Residuenvektor r = ] 0 1 [ m1 m hat minimale Länge, wenn er auf die Ebene normal steht. 2 0

44 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu finden... Drehen wir vorsichtig das Koordinatensystem... bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b

45 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu finden... Drehen wir vorsichtig das Koordinatensystem... bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b

46 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu 4 finden... 3 Drehen wir vorsichtig das Koordinatensystem... 2 bis die zwei Vektoren in 1 der xy-ebene liegen. Die Lösung liegt nun genau 0 senkrecht unter b

47 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit 0 minimalem Abstand von 3 b nicht so leicht zu finden... 2 Drehen wir vorsichtig das 1 Koordinatensystem... bis die zwei Vektoren in 0 der xy-ebene liegen. Die 0 Lösung liegt nun genau senkrecht unter b

48 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit 3 minimalem Abstand von 2 b nicht so leicht zu finden... 1 Drehen wir vorsichtig das 0 Koordinatensystem... 0 bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b

49 Drehe den Bildraum, dann geht s leichter! Wenn die zwei die Ebene aufspannenden Vektoren irgendwo hin in den R 3 zeigen, ist der Punkt mit minimalem Abstand von b nicht so leicht zu finden... Drehen wir vorsichtig das Koordinatensystem... bis die zwei Vektoren in der xy-ebene liegen. Die Lösung liegt nun genau senkrecht unter b Suche eine orthogonale Matrix Q, welche das Gleichungssystem in einen einfacheren Bildraum dreht!

50 Beispiel von vorhin Die QR-Zerlegung von A liefert die gewünschte Drehmatrix! Zerlegung A = QR : Transformiertes System Rx = Q T b : Drehung mit Q anschaulich interpretiert = / / /2 ] 5/ 0 3/2 [ 2 m1 = 7/ 6 m / 3 QR-Zerlegung transformiert überbestimmtes System in lösbaren Anteil und unlösbaren Rest Bestmögliche Lösung: unlösbare Gleichungen weglassen, die anderen exakt lösen.

51 QR-Zerlegung löst (überbestimmte) Gleichungssysteme Zur Lösung von Ax = b führt man QR-Zerlegung durch und löst das Dreieckssystem Rx = Q T b durch Substitution. Begründung Ax = b Q Rx = b Q T Q T Q Rx = Q T b Rx = Q T b Bei n n-systemen setzt man diese Methode normalerweise nicht ein, weil sie rechenaufwändiger als die LR-Zerlegung ist. Bei n m-systemen (n > m) liefern die ersten m Zeilen von R die kleinste-quadrate-lösung. Lösung überbestimmte Systeme mittels Normalengleichungen ist anfälliger für Rundungsfehler als Lösung durch QR-Zerlegung. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

52 Überbestimmte Systeme A x = b: QR-Zerlegung Aufgabe Suche x so, dass Residuums-2-Norm r 2 minimal wird Vorgangsweise r = b A x min! Zerlege A = Q R Multiplikation von r mit Q T lässt 2-Norm unverändert. Wandle um: r = Q T r = Q T (b A x) = Q T b R x Für das transformierte System ist die Minimallösung offensichtlich... C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

53 Angenommen, das überbestimmte System besteht aus m Unbekannten und n = m+k Gleichungen (k > 0). Dann ist R eine n m-matrix, deren letzte k Zeilen lauter Nullen enthalten. Die letzten k Zeilen des Residuumsvektors hängen nicht von x ab. Löse die ersten m Gleichungen des Systems R x = Q T b exakt (wenn möglich): Diese Gleichungen liefern keinen Beitrag zu Residuum. Die restlichen k Gleichungen hängen von x nicht ab. Keine Wahl von x kann den Beitrag dieser Gleichungen zum Residuum ändern. Daher ist die gewählte Lösung optimal für R x = Q T b Weil Transformation die Norm nicht beeinflusst, ist diese Lösung auch optimale Lösung von A x = b C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

54 Überbestimmte Systeme A x = b: SVD-Zerlegung Aufgabe Suche x so, dass Residuums-2-Norm r 2 minimal wird Vorgangsweise r = b A x min! Zerlege A = U S V T, substituiere y = V T x. Multiplikation von r mit U T lässt 2-Norm unverändert. Wandle um: r = U T r = U T b S V T x = Q T b S y Für das gedrehte System ist die Minimallösung völlig offensichtlich... (Zahlenbeispiel im Skriptum) C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

55 Übersicht der Verfahren für überbestimmte Systeme A x = b Normalengleichungen A T A = A T b Klassischer Lösungsweg. Anfällig für Daten- und Rundungsfehler (schlechte Konditionszahl). QR-Zerlegung Standardverfahren zur numerischen Lösung. Algebraisch äquivalent zu Norm.gleichungen, aber numerisch weniger fehlerempfindlich. MATLAB x = A\b verwendet bei überbestimmten Systemen automatisch QR-Zerlegung Sonderfälle (rang A n) Überbestimmte Systeme, die trotzdem exakt lösbar sind oder eine Schar von (ex. oder kl. Quadr.) Lösungen haben. Normalengleichungen können versagen. Singulärwert-Zerlegung. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

56 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung Orthogonale Matrizen QR-Zerlegung Singulärwertzerlegung 2 Überbestimmte Systeme Kleinste Quadrate Lösung durch QR-Zerlegung 3 Beispiele für überbestimmte Systeme Lineare Modelle Nichtlineare Systeme C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

57 Lineares Modell in zwei Variablen Anpassen einer Ausgleichs-Ebene: Beispiel aus der Matlab-Hilfe Angenommen, eine Größe y hängt von zwei Parametern x 1 und x 2 ab. Folgende Messwerte liegen vor: x 1 : x 2 : y : Wir nehmen ein lineares Modell y = a 0 +a 1 x 1 +a 2 x 2 an und setzen die gegebenen Datentripel ein führt auf ein System von 6 linearen Gleichungen in den 3 unbekannten Koeffizienten a 0,a 1,a 2. Kleinste-Quadrate-Lösung liefert Ebene mit bestmöglicher Anpassung an Daten

58 Lineares Modell in zwei Variablen Beispiel: Magnetische Deklinationswerte in Österreich Wien 3 00 Eisenstadt 3 02 St.Pölten 2 54 Graz 2 47 Linz 2 33 Klagenfurt 2 30 Salzburg 2 15 Innsbruck 1 53 Bregenz 1 24 Daten: ZAMG Kleinste-Quadrate-Anpassung liefert Modell: δ = λ φ

59 Überbestimmte nichtlineare Systeme Beispiel: Standortbestimmung durch Trilateration Die Abstände von drei festen Punkten A,B,C zu einem unbekannten Punkt X sind (etwas ungenau) bekannt. Gesucht ist eine möglichst gute Positionsbestimmung. (x1 1) 2 +(x 2 1) 2 = 6 (x1 8) 2 +(x 2 4) 2 = C d c =4.2 d b =3.6 (x1 5) 2 +(x 2 8) 2 = d a =6 4 X B 2 Den drei Gleichungen entsprechen drei Kreise im R 2. Sie haben keinen gemeinsamen Schnittpunkt. 1 A

60 Überbestimmte nichtlineare Systeme Lösung durch Linearisierung und Iteration f(x) = b, x R n, f(x),b R m, m > n Ausgehend von einem Startvektor x (0) bestimmt man eine Korrektur x aus der Lösung des überbestimmten linearen Systems mit der Jacobimatrix D f D f x = b f(x) und gewinnt eine verbesserte Lösung x (1) = x (0) + x. Für die Konvergenz der Iteration kann Unterrelaxation (Dämpfung) notwendig sein: x (n+1) = x (n) +ω x mit Unterrelaxationsfaktor 0 < ω 1. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

61 Überbestimmte nichtlineare Systeme Lösung durch Linearisierung und Iteration f(x) = b, x R n, f(x),b R m, m > n Ausgehend von einem Startvektor x (0) bestimmt man eine Korrektur x aus der Lösung des überbestimmten linearen Systems mit der Jacobimatrix D f D f x = b f(x) und gewinnt eine verbesserte Lösung x (1) = x (0) + x. Für die Konvergenz der Iteration kann Unterrelaxation (Dämpfung) notwendig sein: x (n+1) = x (n) +ω x mit Unterrelaxationsfaktor 0 < ω 1. C.B & E.H. (MUL) Matrixzerlegungen, Überbest. Systeme 20.III / 36

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten

Mehr

Matrix-Zerlegungen, überbestimmte Systeme, iterative Löser

Matrix-Zerlegungen, überbestimmte Systeme, iterative Löser Matrix-Zerlegungen, überbestimmte Systeme, iterative Löser 5. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 22. März 2018 Matrix-Zerlegungen, überbestimmte

Mehr

Überbestimmte Gleichungssysteme, Regression

Überbestimmte Gleichungssysteme, Regression Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Lineare Gleichungssysteme II

Lineare Gleichungssysteme II Lineare Gleichungssysteme II 5. Vorlesung 70 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 2. April 206 Lineare Gleichungssysteme II Lösbarkeit, Fehlerempfindlichkeit

Mehr

Überbestimmte Systeme, Approximation

Überbestimmte Systeme, Approximation Überbestimmte Systeme, Approximation 7. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. April 2014 Gliederung 1 Überbestimmte Systeme Wiederholung:

Mehr

Überbestimmte Systeme, Datenmodelle, Polynomiale Regression

Überbestimmte Systeme, Datenmodelle, Polynomiale Regression Überbestimmte Systeme, Datenmodelle, Polynomiale Regression 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 26. April 2018 Überbestimmte Systeme,

Mehr

Mathematik in den technischen Wissenschaften

Mathematik in den technischen Wissenschaften Mathematik in den technischen Wissenschaften eine Themen-Auswahl Clemens Brand Montanuniversität Leoben AG-Tagung AHS Mathematik St. Pölten, 19. März 2014 Gliederung 1 Numerische Lineare Algebra Überbestimmte

Mehr

Datenmodelle, Regression

Datenmodelle, Regression Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression

Mehr

2x + y = 19 4x + 4y = 13 4x y = 17

2x + y = 19 4x + 4y = 13 4x y = 17 170 00 Übungen zu Numerische Methoden I Sechste Übungseinheit 1., 1. und 16. Mai 2012 Inhalt der sechsten Übungseinheit: Überbestimmte lineare Systeme Isolinien-Diagramme Lineare Datenmodelle Überbestimmte

Mehr

Überbestimmte Systeme

Überbestimmte Systeme 5 Überbestimmte Systeme Ein lineares Gleichungssystem Ax = b mit mehr Gleichungen als Unbekannten heißt überbestimmt. In so einem Fall ist A eine n m-matrix mit n > m, also rechteckig, mit mehr Zeilen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,

Mehr

Lineare Gleichungssysteme: direkte Verfahren

Lineare Gleichungssysteme: direkte Verfahren Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Finden Sie für diese Daten eine Anpassung der Form. t(d,t 0 ) = a 1 +a 2 d+a 3 T 0 +a 4 dt 0

Finden Sie für diese Daten eine Anpassung der Form. t(d,t 0 ) = a 1 +a 2 d+a 3 T 0 +a 4 dt 0 170 00 Übungen zu Numerische Methoden I Siebente Übungseinheit 16., 17. und 18. Mai 2011 Inhalt der siebten Übungseinheit: Lineare Datenmodelle überbestimmte nichtlineare Systeme Basic Fitting Tool 7.1

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 6. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. März 2010 Nachträge Gliederung Nachträge it Nachträge Wichtige Begriffe Eine Zusammenfassung der Folien 8 16 der letzten

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

D. Vierte Übungseinheit

D. Vierte Übungseinheit D. Vierte Übungseinheit Inhalt der vierten Übungseinheit: Matrix-Vektor-Multiplikation Bergabstrich löst Gleichungssysteme Eindeutig, nicht eindeutig und gar nicht lösbare Systeme Eliminationsverfahren

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

4. Großübung. Lösung linearer Gleichungssysteme

4. Großübung. Lösung linearer Gleichungssysteme 4. Großübung Lösung linearer Gleichungssysteme Gesucht x, x, x 3, x 4 R, sodass gilt. mit A R 4 4, x R 4, b R 4 x x + 3x 3 + x 4 = 5 6x 3x 7x x 4 = 5 4x + 4x + 5x 3 5x 4 = 3 8x + x + x 3 + x 4 = 8 3 x

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Serie 8: Online-Test

Serie 8: Online-Test D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017 Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block

Mehr

D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11

D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11 D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. In dieser Aufgabe wollen wir die Parameter einer gewissen Modellfunktion aus ein paar gemessenen Werten bestimmen. Das Modell

Mehr

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen

Mehr

Singulärwertzerlegung

Singulärwertzerlegung LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Probeklausur zu Mathematik 2 für Informatik

Probeklausur zu Mathematik 2 für Informatik Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

Klausur zu Grundlagen der Computermathematik

Klausur zu Grundlagen der Computermathematik Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate Ludwig-Maximilians-Universität München Department für Computerlinguistik WS 2010/11 Hauptseminar Matrixmethoden in Textmining Dozent: Prof. Dr. Klaus Schulz Referentin: Sarah Söhlemann Lineare Gleichungssysteme

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. März 2016 Nichtlineare Gleichungen, Fixpunkt-Iterationen 1 Wiederholung Aufgabentypen

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 11. Aufgabe ETH Zürich D-MATH. Dr. V. Gradinaru D. Devaud. Herbstsemester 2015

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 11. Aufgabe ETH Zürich D-MATH. Dr. V. Gradinaru D. Devaud. Herbstsemester 2015 Dr. V. Gradinaru D. Devaud Herbstsemester 015 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 11 Aufgabe 11.1 11.1a) Sei die QR-Zerlegung der m n Matrix A (m > n) gegeben

Mehr

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i

Mehr

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015 Matrizenrechnung Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Matrizenrechnung Übersicht Grundsätzliches 1 Grundsätzliches Matrixbegriff Rechenregeln Spezielle Matrizen 2 Matrizenrechnung Determinanten

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen Gliederung I. Motivation II. Lesen mathematischer Symbole III. Wissenschaftliche Argumentation IV. Matrizenrechnung i. Rechenoperationen mit Matrizen ii. iii. iv. Inverse einer Matrize Determinante Definitheit

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A. Dr V Gradinaru D Devaud A Hiltebrand Herbstsemester 2014 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 91 91a) Sei A eine n n-matrix Das Gleichungssystem Ax

Mehr

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und

Mehr

Mathematik I für MB und ME

Mathematik I für MB und ME Mathematik I für MB und ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 28/29 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden

Mehr

Mathematik I für MB/ME

Mathematik I für MB/ME Mathematik I für MB/ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 25/26 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung: Woche vom (Lin.Alg.

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung: Woche vom (Lin.Alg. Übungsaufgaben 12. Übung: Woche vom 16. 1.-20. 1. 2017 (Lin.Alg. I): Heft Ü 3: 2.1.11; 2.1.8; 2.1.17; 2.2.1; 2.2.3; 1.1.1; 1.1.4; Hinweis 1: 3. Test (Integration, analyt. Geom.) ist seit 9.1. freigeschalten

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Lineare Gleichungen. Mathematik-Repetitorium. 3.1 Eine Unbekannte. 3.2 Zwei oder drei Unbekannte. 3.3 Allgemeine lineare Gleichungssysteme

Lineare Gleichungen. Mathematik-Repetitorium. 3.1 Eine Unbekannte. 3.2 Zwei oder drei Unbekannte. 3.3 Allgemeine lineare Gleichungssysteme Lineare Gleichungen 3.1 Eine Unbekannte 3.2 Zwei oder drei Unbekannte 3.3 Allgemeine lineare Gleichungssysteme Lineare Gleichungen 1 Vorbemerkung zu Kapitel 1 Gleichungen (Unbekannte) (Variablen, Parameter)

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Sommer 2012 Prof. H.-R. Künsch

Lineare Algebra und Numerische Mathematik D-BAUG. Sommer 2012 Prof. H.-R. Künsch b Prüfung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice: Sommer Prof. H.-R. Künsch Gegeben sei die folgende Matrix A = 4. 4 (a) x AA T ist eine 4 4 Matrix mit ( AA T) = 4. AA T ist

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud. Dr. V. Gradinaru D. Devaud Herbstsemester 15 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 1 Aufgabe 1.1 1.1a) Sei A eine n n-matrix. Das Gleichungssystem Ax = b sei

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)

Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min) Lehrstuhl für Angewandte Mathematik Montanuniversität Leoben 70 004 Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan. 207 2:00-4:00 (20 min) Name Matrikelnummer Mündliche Prüfung: Bitte markieren

Mehr

9. Vorlesung Lineare Algebra, SVD und LSI

9. Vorlesung Lineare Algebra, SVD und LSI 9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Kern und Bild einer Matrix

Kern und Bild einer Matrix Kern und Bild einer Matrix. Motivation Zur theoretischen Beschreibung der Abbildungen durch Matrizen wurden Begriffe eingeführt, die eine "elegante" Formulierung erlauben. In Linearen Gleichungssystemen

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineares Gleichungssystem

Lineares Gleichungssystem Lineares Gleichungssystem Ein System von m linearen Gleichungen in n Unbekannten besteht aus einer Menge von algebraischen Relationen der Form n a ij x j = b i, i =,...,m, j= wobei a ij R, i m, j n, die

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11 D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. Wir betrachten das überbestimmte Gleichungssystem Ax = y mit 1 1 1 1 A := 1 1 0 1 0 1, y := 2 3 0 0 1 4 Berechnen Sie die

Mehr

Matrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie

Matrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie Regina Gellrich Carsten Gellrich Matrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie Mit zahlreichen Abbildungen, Aufgaben mit Lösungen und durchgerechneten Beispielen

Mehr

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1 Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die

Mehr

Hilfsblätter Lineare Algebra

Hilfsblätter Lineare Algebra Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y

Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y Aufgabe 1 Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. (( )) 3x x (a) Sei f : R 2 R 3 mit f = 2y + x y x y ( ) 4 (b) Sei f : R R 2 mit f(x) = x + 1 (( )) ( ) x x y (c) Sei

Mehr

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1 Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: 1 1 0 2 b 1 1 2 4 1 1 4 6 x = 1 1. 2 2 2a 2 3a 1 (a) Bringen Sie das lineare Gleichungssystem auf Treppenform. (b) Für welche

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und

Mehr

Serie 8: Online-Test

Serie 8: Online-Test D-MAVT Lineare Algebra I HS 018 Prof Dr N Hungerbühler Serie 8: Online-Test Schicken Sie Ihre Lösung bis spätestens Freitag, den 3 November um 14:00 Uhr ab Diese Serie besteht nur aus Multiple-Choice-Aufgaben

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b]) Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu

Mehr