Methode der kleinsten Quadrate

Größe: px
Ab Seite anzeigen:

Download "Methode der kleinsten Quadrate"

Transkript

1 Versus QR Matrizen mit vollem Rang 27. Mai 2011

2 Versus QR Inhaltsverzeichnis Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich

3 Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1, 0), (2, 0) am nächsten liegt.

4 Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1, 0), (2, 0) am nächsten liegt.

5 Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1, 0), (2, 0) am nächsten liegt. Gerade b = C + Dt

6 Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1, 0), (2, 0) am nächsten liegt. Gerade b = C + Dt Optimal wäre also, wenn C und D die 3 Gleichungen erfüllen: C + 0D = 6 C + 1D = 0 C + 2D = 0

7 Beispiel Versus QR 1 0 In Matrixschreibweise: A = 1 1, x = 1 2 [ ] C, b = D Vektor b keine Linearkombination der Spalten von A Ax = b ist nicht lösbar!! 6 0 0

8 Beispiel Versus QR 1 0 In Matrixschreibweise: A = 1 1, x = 1 2 [ ] C, b = D Vektor b keine Linearkombination der Spalten von A Ax = b ist nicht lösbar!! Ziel e = b Ax 6 0 0

9 Versus QR Allgemeine Problematik Zu lösen: Ax = b Aber es gibt mehr Gleichungen als Unbekannte

10 Versus QR Allgemeine Problematik Zu lösen: Ax = b Aber es gibt mehr Gleichungen als Unbekannte Wenn b nicht im Spaltenraum liegt, liefert das Eliminationsverfahren eine unmögliche Gleichung

11 Versus QR Allgemeine Problematik Zu lösen: Ax = b Aber es gibt mehr Gleichungen als Unbekannte Wenn b nicht im Spaltenraum liegt, liefert das Eliminationsverfahren eine unmögliche Gleichung Kleinstes Fehlerquadrat Ist die Länge von e = b Ax so klein wie möglich, so nennt man ˆx, das beste x, eine Lösung mit kleinstem Fehlerquadrat

12 Versus QR Warum 2-Norm? min Ax b 2 φ(x) = 1 2 Ax b 2 2 ist eine differenzierbare Funktion Die 2-Norm bleibt bei orthogonaler Transformation erhalten

13 Versus QR Warum 2-Norm? min Ax b 2 φ(x) = 1 2 Ax b 2 2 ist eine differenzierbare Funktion Die 2-Norm bleibt bei orthogonaler Transformation erhalten Bemerkung Sei Q orthogonale Matrix, dann gilt: Qx 2 2 = (Qx)T (Qx) = x T Q T Qx = x T Ex = x T x = x 2 2

14 Geometrisch Versus QR Wie kann man den Fehler e = b Ax so klein wie möglich machen?

15 Geometrisch Versus QR Wie kann man den Fehler e = b Ax so klein wie möglich machen? Jeder Vektor Ax liegt in dem durch die Spalten von A aufgespannten Raum

16 Geometrisch Versus QR Wie kann man den Fehler e = b Ax so klein wie möglich machen? Jeder Vektor Ax liegt in dem durch die Spalten von A aufgespannten Raum Gesucht ist der Punkt im aufgespannten Raum, der am nächsten an b liegt

17 Geometrisch Versus QR Wie kann man den Fehler e = b Ax so klein wie möglich machen? Jeder Vektor Ax liegt in dem durch die Spalten von A aufgespannten Raum Gesucht ist der Punkt im aufgespannten Raum, der am nächsten an b liegt e muss orthogonal zum aufgespannten Raum sein A T (b Ax) = 0

18 Analytisch Versus QR Angenommen A R m n, m n, rang(a) = n, x, z R n und α R φ z (α) = A(x + αz) b 2 2

19 Analytisch Versus QR Angenommen A R m n, m n, rang(a) = n, x, z R n und α R φ z (α) = A(x + αz) b 2 2 φ z (α) = (A(x + αz) b) T (A(x + αz) b)

20 Analytisch Versus QR Angenommen A R m n, m n, rang(a) = n, x, z R n und α R φ z (α) = A(x + αz) b 2 2 φ z (α) = (A(x + αz) b) T (A(x + αz) b) = (x + αz) T A T A(x + αz) 2(x + αz) T A T b + b T b

21 Analytisch Versus QR Angenommen A R m n, m n, rang(a) = n, x, z R n und α R φ z (α) = A(x + αz) b 2 2 φ z (α) = (A(x + αz) b) T (A(x + αz) b) = (x + αz) T A T A(x + αz) 2(x + αz) T A T b + b T b = α 2 (z T A T Az) + 2α(z T A T Ax z T A T b) + (x T A T Ax + b T b 2x T A T b)

22 Analytisch Versus QR Angenommen A R m n, m n, rang(a) = n, x, z R n und α R φ z (α) = A(x + αz) b 2 2 φ z (α) = (A(x + αz) b) T (A(x + αz) b) = (x + αz) T A T A(x + αz) 2(x + αz) T A T b + b T b = α 2 (z T A T Az) + 2α(z T A T Ax z T A T b) + (x T A T Ax + b T b 2x T A T b) = α 2 Az αz T A T (Ax b) + Ax b 2 2

23 Analytisch Versus QR Betrachten wir φ z (α) = A(x+αz) b 2 2 = α 2 Az 2 2+2αz T A T (Ax b)+ Ax b 2 2

24 Analytisch Versus QR Betrachten wir φ z (α) = A(x+αz) b 2 2 = α 2 Az 2 2+2αz T A T (Ax b)+ Ax b 2 2 Wenn x Lösung des Ausgleichsproblems, dann muss A T (Ax b) = 0 sein (φ z (α) = 0)

25 Analytisch Versus QR Betrachten wir φ z (α) = A(x+αz) b 2 2 = α 2 Az 2 2+2αz T A T (Ax b)+ Ax b 2 2 Wenn x Lösung des Ausgleichsproblems, dann muss A T (Ax b) = 0 sein (φ z (α) = 0) Ansonsten, wenn z = A T (Ax b) und α sehr klein, dann gilt: A(x + αz) b 2 < Ax b 2

26 Analytisch Versus QR Betrachten wir φ z (α) = A(x+αz) b 2 2 = α 2 Az 2 2+2αz T A T (Ax b)+ Ax b 2 2 Wenn x Lösung des Ausgleichsproblems, dann muss A T (Ax b) = 0 sein (φ z (α) = 0) Ansonsten, wenn z = A T (Ax b) und α sehr klein, dann gilt: A(x + αz) b 2 < Ax b 2 Wenn x und x + αz Lösungen, dann ist z Kern(A)

27 Analytisch Versus QR Damit haben wir die Sei m n, A R m n, b R m und n = rang(a). Ein Vektor x R n ist genau dann Lösung des Ausgleichsproblems, wenn x die A T Ax = A T b erfüllt.

28 Analytisch Versus QR Damit haben wir die Sei m n, A R m n, b R m und n = rang(a). Ein Vektor x R n ist genau dann Lösung des Ausgleichsproblems, wenn x die A T Ax = A T b erfüllt. Bemerkung A T A ist wegen vollem Spaltenrang von A positiv definit: x T (A T A)x = (Ax) T (Ax) = Ax 2 2 > 0 Also besitzt die eine eindeutige Lösung

29 Versus QR Beispiel Methode der Algorithmus 1 Berechne C := A T A 2 Berechne b := A T b A T Ax = A T b 3 Bestimme Cholesky-Faktor G von C, d.h. G T G = C 4 Löse G T y = b mittels Vorwärtssubstitution 5 Löse G x = y mittels Rückwärtssubstitution

30 Versus QR Beispiel Rechenaufwand der Aufstellen von C := A T A n(n + 1)m n 2 m Berechnen von b := A T b Cholesky-Zerlegung von A T A Löse G T y = b Löse Gx = y

31 Versus QR Beispiel Rechenaufwand der Aufstellen von C := A T A Berechnen von b := A T b n(n + 1)m n 2 m 2mn Cholesky-Zerlegung von A T A Löse G T y = b Löse Gx = y

32 Versus QR Beispiel Rechenaufwand der Aufstellen von C := A T A Berechnen von b := A T b n(n + 1)m n 2 m 2mn Cholesky-Zerlegung von A T A n 3 3 Löse G T y = b Löse Gx = y

33 Versus QR Beispiel Rechenaufwand der Aufstellen von C := A T A Berechnen von b := A T b n(n + 1)m n 2 m 2mn Cholesky-Zerlegung von A T A n 3 3 Löse G T y = b n 2 Löse Gx = y n 2

34 Versus QR Beispiel Rechenaufwand der Aufstellen von C := A T A Berechnen von b := A T b n(n + 1)m n 2 m 2mn Cholesky-Zerlegung von A T A n 3 3 Löse G T y = b n 2 Aufwand Praxis Löse Gx = y n 2 Für m n beträgt der Rechenaufwand (m + n 3 )n2. Da oft m n dominieren die Berechnung von A T A und A T b die Gesamtkosten.

35 Zurück zum Beispiel Versus QR Beispiel 1 0 In Matrixschreibweise: A = 1 1, x = 1 2 [ ] C, b = D 6 0 0

36 Zurück zum Beispiel Versus QR Beispiel 1 0 In Matrixschreibweise: A = 1 1, x = C := A T A = [ ] [ ] C, b = D 6 0 0

37 Zurück zum Beispiel Versus QR Beispiel 1 0 In Matrixschreibweise: A = 1 1, x = 1 2 [ ] C := A T A = 3 5 [ ] 2 6 b := A T b b = 0 [ ] C, b = D 6 0 0

38 Zurück zum Beispiel Versus QR Beispiel 1 0 [ ] 6 In Matrixschreibweise: A = 1 1 C, x =, b = 0 D [ ] C := A T A = 3 5 [ ] 2 6 b := A T b b = 0 [ ] Cholesky Zerlegung G T G = C G = 0 2

39 Zurück zum Beispiel Versus QR Beispiel 1 0 [ ] 6 In Matrixschreibweise: A = 1 1 C, x =, b = 0 D [ ] C := A T A = 3 5 [ ] 2 6 b := A T b b = 0 [ ] Cholesky Zerlegung G T G = C G = 0 2 [ ] G T y = b y = 3 2

40 Zurück zum Beispiel Versus QR Beispiel 1 0 [ ] 6 In Matrixschreibweise: A = 1 1 C, x =, b = 0 D [ ] C := A T A = 3 5 [ ] 2 6 b := A T b b = 0 [ ] Cholesky Zerlegung G T G = C G = 0 2 [ ] G T y = b y = 3 2 [ ] 5 5 Gx = y x = 3

41 Zurück zum Beispiel Versus QR Beispiel Damit haben wir Die Gerade b = 5 3t

42 Zurück zum Beispiel Versus QR Beispiel Damit haben wir Die Gerade b = 5 3t Fehlervektor 1 e = b Aˆx = 2 1 Dieser ist orthogonal zu den Spalten von A

43 Versus QR Beispiel Ausgleichsproblem mittels Angenommen A R m n, m n, b R m und eine orthogonale Matrix Q R m m wurde berechnet, sodass:... Q T A = R = = [ ] R1 0

44 Versus QR Beispiel Ausgleichsproblem mittels Angenommen A R m n, m n, b R m und eine orthogonale Matrix Q R m m wurde berechnet, sodass:... Q T A = R = = [ ] R1 0 n m n

45 Versus QR Beispiel Ausgleichsproblem mittels Algorithmus [ ] 1 Q T R1 n A = R = 0 m n [ ] b1 2 Q T n b = b 2 m n Ax = b 3 Löse R 1 x = b 1 durch Rückwärtseinsetzen, denn:

46 Versus QR Beispiel Ausgleichsproblem mittels Algorithmus [ ] 1 Q T R1 n A = R = 0 m n [ ] b1 2 Q T n b = b 2 m n Ax = b 3 Löse R 1 x = b 1 durch Rückwärtseinsetzen, denn: Ax b 2 2 = Q T (QRx b) 2 2 = Rx b 2 2 =

47 Versus QR Beispiel Ausgleichsproblem mittels Algorithmus [ ] 1 Q T R1 n A = R = 0 m n [ ] b1 2 Q T n b = b 2 m n Ax = b 3 Löse R 1 x = b 1 durch Rückwärtseinsetzen, denn: Ax b 2 2 = Q T (QRx b) 2 2 = Rx b 2 2 = R 2 1x b 1 0x b 2 = R 1 x b b

48 Versus QR Beispiel Ausgleichsproblem mittels Algorithmus [ ] 1 Q T R1 n A = R = 0 m n [ ] 2 b Q T b = 1 n b 2 m n 3 Löse R 1 x = b 1 durch Rückwärtseinsetzen Bemerkung Wenn rang(a) = rang(r 1 ) = n, dann ist ˆx eindeutig bestimmt.

49 Versus QR Beispiel Ausgleichsproblem mittels Algorithmus [ ] 1 Q T R1 n A = R = 0 m n [ ] 2 b Q T b = 1 n b 2 m n 3 Löse R 1 x = b 1 durch Rückwärtseinsetzen Bemerkung Wenn rang(a) = rang(r 1 ) = n, dann ist ˆx eindeutig bestimmt. Ax b 2 2 minimal R 1 x b = 0 Es gilt: min Ax b 2 2 = b 2 2 2

50 Versus QR Beispiel Ausgleichsproblem mittels Algorithmus [ ] 1 Q T R1 n A = R = 0 m n [ ] 2 b Q T b = 1 n b 2 m n 3 Löse R 1 x = b 1 durch Rückwärtseinsetzen Rechenaufwand Bemerkung Wenn rang(a) = rang(r 1 ) = n, dann ist ˆx eindeutig bestimmt. Ax b 2 2 minimal R 1 x b = 0 Es gilt: min Ax b 2 2 = b QR-Methode benötigt 2n 2 (m n 3 ) (Hausholder-Transformationen) Vernachlässigbar: O(mn) für Berechnung von b und O(n 2 ) für die Rücksubstitution.

51 Versus QR Nochmal zum Beispiel Beispiel 1 0 In Matrixschreibweise: A = 1 1, x = Q T A = [ ] C, b = D = R =

52 Versus QR Nochmal zum Beispiel Beispiel 1 0 In Matrixschreibweise: A = 1 1, x = Q T 3 A = R = Q T b = [ ] C, b = D =

53 Versus QR Nochmal zum Beispiel Beispiel 1 0 In Matrixschreibweise: A = 1 1, x = Q T 3 A = R = Q T b = [ ] [ ] R 1 x = C = 0 2 D [ ] C, b = D [ ] D = 3 C = 5 2

54 Versus QR Ausgleichsproblem mittels Angenommen A R m n, m n, b R m und M T M = D ist Diagonal und [ ] M T S1 n A = 0 m n ist obere Dreiecksmatrix.

55 Versus QR Ausgleichsproblem mittels Angenommen A R m n, m n, b R m und M T M = D ist Diagonal und [ ] M T S1 n A = 0 m n ist obere Dreiecksmatrix. [ ] b Wenn M T b = 1 n b 2 m n dann gilt:

56 Versus QR Ausgleichsproblem mittels Angenommen A R m n, m n, b R m und M T M = D ist Diagonal und [ ] M T S1 n A = 0 m n ist obere Dreiecksmatrix. [ ] b Wenn M T b = 1 n b 2 m n dann gilt: Ax b 2 2 = D 1/2 M T Ax D 1/2 M T b 2 2 ([ ] [ ]) = S1 b D 1/2 x b 2 2

57 Wie vergleichen? Versus QR Kondition Vergleich Zur Bewertung der Qualität einer berechneten Lösung ˆx, sollte man sich fragen: Wie nah ist ˆx an x? Wie klein ist ê = b Aˆx verglichen mit e = b Ax

58 Wie vergleichen? Versus QR Kondition Vergleich Zur Bewertung der Qualität einer berechneten Lösung ˆx, sollte man sich fragen: Wie nah ist ˆx an x? Wie klein ist ê = b Aˆx verglichen mit e = b Ax Gefühl Wenn die Spalten von A fast abhängig sind, dann könnte was schief laufen.

59 Versus QR Kondition einer Matrix Kondition Vergleich Definition A R m n, rang(a) = n κ 2 (A) = σmax (A) σ min (A) (σ= Singulärwert)

60 Versus QR Kondition einer Matrix Kondition Vergleich Definition A R m n, rang(a) = n κ 2 (A) = σmax (A) σ min (A) (σ= Singulärwert) Das passt Wenn die Spalten von A fast abhängig sind, dann ist κ 2 (A) groß.

61 Beispiel Kondition Versus QR Kondition Vergleich Angenommen A = , δa = 0 0, b = 1 0, δb = und x und x minimieren Ax b 2 und (A + δa)x (b + δb) 2 [ [ ] 1 1 dann ist x =, x = 0] , e = 0 0 0, ẽ =

62 Beispiel Kondition Versus QR Kondition Vergleich Angenommen A = , δa = 0 0, b = 1 0, δb = und x und x minimieren Ax b 2 und (A + δa)x (b + δb) 2 [ [ ] 1 1 dann ist x =, x = 0] , e = 0 0 0, ẽ = Da κ 2 (A) = 10 6 ist: x x 2 x κ 2 (A) 2 δa 2 A 2 ẽ e 2 b κ 2 (A) δa 2 A 2 = =

63 Versus QR Kondition Vergleich Vergleich und QR Problem Die Matrix A ist schon schlecht konditioniert.

64 Versus QR Kondition Vergleich Vergleich und QR besitzt etwa die Hälfte des Rechenaufwandes, wenn m n. benötigt nicht so viel Speicher. Aber es erhöht die Kondition, denn: κ 2 (A T A) = κ 2 (A) 2 Wenn e klein und κ 2 (A) groß ist, keine genaue Lösung. Problem Die Matrix A ist schon schlecht konditioniert.

65 Versus QR Kondition Vergleich Vergleich und QR besitzt etwa die Hälfte des Rechenaufwandes, wenn m n. benötigt nicht so viel Speicher. Aber es erhöht die Kondition, denn: κ 2 (A T A) = κ 2 (A) 2 Wenn e klein und κ 2 (A) groß ist, keine genaue Lösung. Problem Die Matrix A ist schon schlecht konditioniert. Mittels QR ist für eine größere Anzahl von Matrizen geeigent, denn: Orthogonale Matrizen veränderen die Kondition nicht! Wenn e groß und κ 2 (A) groß ist, keine genaue Lösung.

66 Quellen Versus QR Kondition Vergleich Gene H. Golub, Charles F. Van Loan. Matrix Computation Third Edition. Gilbert Strang. Lineare Algebra. lectures/fs2009/math/nm/kapitel7-2p.pdf Vielen Dank!

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana [email protected] November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Linear Systems and Least Squares

Linear Systems and Least Squares Linear Systems and Least Squares Vortragender: Gelin Jiofack Nguedong Betreuer: Prof. Dr. Joachim Weickert Proseminar: Matrixmethoden in Datenanalyse und Mustererkennung Wintersemester 2015/2016 18. November

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung. 20.0.2011 Inhaltsverzeichnis 1 2 3 4 1 2 3 4 der Matrix A R mxn, m n A = Q R Matrix Q: Q R nxn orthogonale Matrix (Spalten paarweise orthogonal) Q Q T = E Matrix R: R R mxn obere Dreiecksmatrix r 11 r

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes

Mehr

Reduced-Rank Least Squares Modelle

Reduced-Rank Least Squares Modelle 16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Lineare Algebra. 2. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 2. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana [email protected] battilana.uk/teaching October 6, 017 1 Erinnerung: Lineare Gleichungssysteme LGS Der allgemeine Fall hat m lineare Gleichungen, n

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Kapitel 2: Lineare Gleichungssysteme

Kapitel 2: Lineare Gleichungssysteme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel

Mehr

4 Lineare Ausgleichsrechnung

4 Lineare Ausgleichsrechnung Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Lineare Ausgleichsproblems

Lineare Ausgleichsproblems Lineare Ausgleichsproblems Heinrich Voss [email protected] Hamburg University of Technology Department of Mathematics Lineare Ausgleichsproblems p. /7 Lineare Ausgleichsprobleme In (fast) allen Wissenschaftsbereichen

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

1.4 Stabilität der Gauß-Elimination

1.4 Stabilität der Gauß-Elimination KAPIEL 1. LINEARE GLEICHUNGSSYSEME 18 1.4 Stabilität der Gauß-Elimination Bezeichne x die exakte Lösung von Ax = b bzw. ˆx die mit einem (zunächst beliebigen Algorithmus berechnete Näherungslösung (inklusive

Mehr

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung

Mehr

Lineare Ausgleichsprobleme

Lineare Ausgleichsprobleme Kapitel Lineare Ausgleichsprobleme Einführung Bemerkung Aufgabenstellung, Motivation Bei linearen Ausgleichsproblemen handeltes sichebenfalls um Bestapproximations Probleme Allerdingsist hier keine Funktion

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg [email protected] Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Matrix- Algorithmen Householder- und Givens- Matrizen

Matrix- Algorithmen Householder- und Givens- Matrizen Fast und 20. Mai 2011 und Inhaltsverzeichnis Fast 1 2 Fast und Fast ist eine eines Vektors an der Hyperebene durch die Null im euklidischen Raum Ein zur Spiegelebene orthogonaler Vektor v R n \ {0} wird

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

Grundlegende Definitionen aus HM I

Grundlegende Definitionen aus HM I Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

Lineare Algebra I: Eine Landkarte

Lineare Algebra I: Eine Landkarte Bild F Algebra I: Eine Landkarte Faser Versuch einer Übersicht der Themen und Zusammenhänge der n Algebra 1. 1 Algebra I: Bild F Faser Sei B Basis von V. Jedes v V läßt sich eindeutig aus den Basisvektoren

Mehr

1 Transponieren, Diagonal- und Dreiecksmatrizen

1 Transponieren, Diagonal- und Dreiecksmatrizen Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Kurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011

Kurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011 Choleskyzerlegung Julia Hoeboer 13 Mai 2011 Inhalt: LDM T Zerlegung LDL T Zerlegung Cholesky Zerlegung Person Berechnung Gaxpy Algorithmus Effektivität LDM T Zerlegung LDM T Zerlegung lässt sich aus LR

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 204 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

10. Übung zur Linearen Algebra I -

10. Übung zur Linearen Algebra I - . Übung zur Linearen Algebra I - en Kommentare an [email protected] FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,

Mehr

3. Das Gleichungssystem

3. Das Gleichungssystem Lagerung: Damit das Fachwerk Kräfte aufnehmen kann, muss es gelagert werden, Die Lagerung muss so beschaffen sein, dass keine Starrkörperbewegungen oder Mechanismen mehr möglich sind. Die Verschiebungen

Mehr

Das inhomogene System. A x = b

Das inhomogene System. A x = b Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Klausurvorbereitungsblatt Lineare Algebra

Klausurvorbereitungsblatt Lineare Algebra Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Höhere Mathematik für die Fachrichtung Physik

Höhere Mathematik für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Lineare Gleichungssysteme: direkte Verfahren

Lineare Gleichungssysteme: direkte Verfahren Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana [email protected] battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

6. Übungsblatt zur Mathematik II für Inf, WInf

6. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es

Mehr

Klausur zur Mathematik I (Modul: Lineare Algebra I)

Klausur zur Mathematik I (Modul: Lineare Algebra I) Technische Universität Hamburg-Harburg Institut für Mathematik Prof. Dr. Anusch Taraz Sommersemester 215 Klausur zur Mathematik I (Modul: Lineare Algebra I) 28.8.215 Sie haben 6 Minuten Zeit zum Bearbeiten

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Lineare Algebra 2013 Lösungen für Test und Zusatzfragen

Lineare Algebra 2013 Lösungen für Test und Zusatzfragen Lineare Algebra 3 Lösungen für Test und Zusatzfragen Test Multiple Choice. Seien Für die Lösung x x x x 3 A, b des Systems Ax b gilt x 3 5 x 3 x 3 3 x 3 / Mit elementaren Zeilenoperationen erhalten wir

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

10. Übung zur Linearen Algebra II -

10. Übung zur Linearen Algebra II - 0. Übung zur Linearen Algebra II - Lösungen Kommentare an [email protected] FU Berlin. SS 00. Aufgabe 7 Der ( linearen ) Abbildung ϕ : R R sei bzgl. der kanonischen Basis die Matrix zugeordnet.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation

Mehr

6. Übungsblatt Aufgaben mit Lösungen

6. Übungsblatt Aufgaben mit Lösungen 6. Übungsblatt Aufgaben mit Lösungen Exercise 6: Find a matrix A R that describes the following linear transformation: a reflection with respect to the subspace E = {x R : x x + x = } followed by a rotation

Mehr

9. Übung zur Linearen Algebra II -

9. Übung zur Linearen Algebra II - 9. Übung zur Linearen Algebra II - en Kommentare an [email protected] FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).

Mehr

Singulärwertzerlegung

Singulärwertzerlegung LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R

Mehr

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen.

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen. Kapitel 4 Lineare Gleichungssysteme 4 Problemstellung und Einführung In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen Lineares Gleichungssystem: Gesucht ist

Mehr

QR-Zerlegung mit Householder-Transformationen

QR-Zerlegung mit Householder-Transformationen 1/ QR-Zerlegung mit Householder-Transformationen Numerische Mathematik 1 WS 011/1 Orthogonales Eliminieren / Sei x R n ein Vektor x = 0. Ziel: Ein orthogonales H R n;n bestimmen, sodass Hx = kxke 1 ; ein

Mehr

Lineare Gleichungssysteme: eine Ergänzung

Lineare Gleichungssysteme: eine Ergänzung Lineare Gleichungssysteme: eine Ergänzung Ein lineares Gleichungssystem, bei dem alle Einträge auf der rechten Seite gleich sind heiÿt homogenes lineares Gleichungssystem: a x + a 2 x 2 +... + a n x n

Mehr

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung 4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a). Aufgabe Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = Es gilt det(λa = (λ n det(a det I n = n? Nein (außer für n = Es gilt deti n = det(ab = det A det B? Ja det(a =

Mehr