Lineare Ausgleichsproblems

Größe: px
Ab Seite anzeigen:

Download "Lineare Ausgleichsproblems"

Transkript

1 Lineare Ausgleichsproblems Heinrich Voss Hamburg University of Technology Department of Mathematics Lineare Ausgleichsproblems p. /7

2 Lineare Ausgleichsprobleme In (fast) allen Wissenschaftsbereichen begegnet man dem Problem, unbekannte Parameter eines funktionalen Zusammenhanges bestimmen zu müssen, dessen Struktur (abgesehen von den Werten der Parameter) etwa aus Naturgesetzen oder Modellannahmen bekannt ist. Lineare Ausgleichsproblems p. 2/7

3 Beispiel Um den Elastizitätsmodul E und die Querdehnungszahl ν eines elastischen Materials zu bestimmen, belastet man eine quaderförmige Probe in achsenparalleler Lage mit verschiedenen Normalspannungen (σ x, σ y, σ z ) und misst die resultierenden Dehnungen. 2 σ z.5 σ x σ y.5 σ y σ x σ z Lineare Ausgleichsproblems p. 3/7

4 Beispiel (2) Der Zusammenhang zwischen Spannung und Dehnung wird beschrieben durch das Hooksche Gesetz ε x ε y ε z = E ν ν ν ν ν ν σ x σ y σ z Führt man eine Messung durch, so werden diese 3 Gleichungen in 2 Unbekannten x =: /E und x 2 := ν/e σ x x + (σ y + σ z )x 2 = ε x σ y x + (σ x + σ z )x 2 = ε y σ z x + (σ x + σ y )x 2 = ε z i.a. einander widersprechen. Man versucht daher, sie möglichst gut in dem folgenden Sinne zu erfüllen. Lineare Ausgleichsproblems p. 4/7

5 Lineares Ausgleichsproblem Betrachte das lineare Ausgleichsproblem: Gegeben seien A R (m,n), b R m. Bestimme x R n, so dass minimal wird. Ax b 2 Das Ausgleichsproblem heißt linear, da die Parameter x nur linear in den Defekt Ax b eingehen. Lineare Ausgleichsproblems p. 5/7

6 Beispiel Die Höhe h einer Flüssigkeitssäule ist eine lineare Funktion der Temperatur h(t) = α + βt. Will man α und β bestimmen, so führt man m Messungen aus und bestimmt aus den Daten (T i, h i ), i =,...,m diese Parameter aus dem linearen Ausgleichsproblem Ax b 2 = min! mit A := T.. T m, x := ( α β ), b := h. h m Lineare Ausgleichsproblems p. 6/7

7 Beispiel 2 Wird statt der Ausgleichsgerade eine Ausgleichsparabel h(t) = α + βt + γt 2 zu den Daten (T i, h i ), i =,...,m, gewünscht, so ergibt sich das lineare Ausgleichsproblem Ax b 2 = min! mit A := T T 2... T m Tm 2, x := α β γ, b := h. h m. Lineare Ausgleichsproblems p. 7/7

8 Lineares Ausgleichsproblem (2) Bei der Lösung des linearen Ausgleichsproblems nutzen wir aus, dass die Transformation mit orthogonalen Matrizen die Euklidische Länge eines Vektors nicht verändert, d.h. für jede orthogonale Matrix Q R (m,m) (und jedes feste x R n ) gilt Ax b 2 = Q(Ax b) 2 = (QA)x Qb 2. Unser Ziel ist es, mit orthogonalen Transformationen Q (), Q (2),... die Systemmatrix A des linearen Ausgleichsproblems analog zur Vorgehensweise beim Gauß-Algorithmus für lineare Gleichungssysteme in eine obere Dreiecksmatrix zu transformieren. Lineare Ausgleichsproblems p. 8/7

9 Lineares Ausgleichsproblem (3) Ist A = O, so kann man x R n beliebig wählen, und das Ausgleichsproblem ist gelöst. Ist A O, so kann man o.b.d.a annehmen, dass die erste Spalte a von A vom Nullvektor verschieden ist (sonst Spaltentausch und Umnummerierung der Variablen). Lineare Ausgleichsproblems p. 9/7

10 Lineares Ausgleichsproblem (4) Wähle Q () als Householdermatrix, für die gilt Q () a = r e mit r = ± a 2. Dann gilt Q () A = r., Q() a 2,...,Q () a n Lineare Ausgleichsproblems p. /7

11 Lineares Ausgleichsproblem (5) Für alle x R n ist also Ax b 2 = ( Q () A ) x Q () b 2 =: A () x b () 2, wobei A () := Q () A = r. r 2,...,r n à (), b() := Q () b. Lineare Ausgleichsproblems p. /7

12 Beispiel Wir betrachten das lineare Ausgleichsproblem mit A = , b =. Die Householdermatrix Q () = E 4 2 wwt w 2 2 mit Q () = r e... Lineare Ausgleichsproblems p. 2/7

13 Beispiel (2) ist gegeben durch w := + 2 = 3. Hiermit gilt Q () = 2e (so ist Q () ja gerade konstruiert), und Lineare Ausgleichsproblems p. 3/7

14 Beispiel (3) Q () 3 3 = (3,,, ) 3 3 = Q () = (3,,, ) = 4 Q () = (3,,, ) = Lineare Ausgleichsproblems p. 4/7

15 Beispiel (4) Das Ausgleichsproblem ist also äquivalent zu Ax b 2 = min! x = min! 2 Lineare Ausgleichsproblems p. 5/7

16 Lineares Ausgleichsproblem (6) Ist Ã() =, so beenden wir die erste Phase des Verfahrens. Sonst können wir wieder o.b.d.a. annehmen, dass die erste Spalte ã () R m von Ã() nicht der Nullvektor ist. Wir wählen die Householdermatrix P (2) R (m,m ) mit P (2) ã () = r 22 e (hier bezeichnet e den ersten Einheitsvektor in R m ) und hiermit Q (2) =,...,. P (2) Lineare Ausgleichsproblems p. 6/7

17 Lineare Ausgleichsprobleme (7) Q (2) A () = = =.... P (2) r r 2 r 3... r n r r 2 r 3... r n.. ã () ã () 2... ã () n P (2) ã () P (2) ã 2... P (2) ã () n r r 2 r 3... r n r 22 r r 2n.. Ã (2) =: A (2) Lineare Ausgleichsproblems p. 7/7

18 Lineare Ausgleichsprobleme (8) und Ax b 2 = Q (2) A () x Q (2) b () 2 = A (2) x b (2) 2. Auf diese Weise kann man fortfahren, die Elemente unterhalb der Hauptdiagonale zu annullieren. Lineare Ausgleichsproblems p. 8/7

19 Lineare Ausgleichsprobleme (8) Man erhält schließlich (bei rundungsfehlerfreier Rechnung) Ax b 2 = A (k) x b (k) 2, mit A (k) = r r 2... r k r,k+... r n r r 2k r 2,k+... r 2n r kk r k,k+... r kn Lineare Ausgleichsproblems p. 9/7

20 Lineare Ausgleichsprobleme (9) Wie bei der Gaußschen Elimination wird man im Falle rundungsbehafteter Rechnung das Verschwinden der Restmatrix Ã(k) numerisch nicht feststellen können, da dort i.a. keine exakten Nullen stehen werden, sondern von Null verschiedene kleine Rundungsfehler. Man wird deshalb bei der numerischen Rechnung die Eliminationsphase abbrechen müssen, wenn die Größe der Restmatrix Ã(k) unter eine vorgegebene kleine Zahl fällt. Lineare Ausgleichsproblems p. 2/7

21 Fortsetzung des letzten Beispiels Der erste Schritt lieferte das äquivalente Ausgleichsproblem x = min! 2 Im zweiten Schritt bestimmen wir die Householder Matrix P (2) = E 3 2 vvt v 2 2 R (3,3) mit P (2) 2 2 = r 22 e. Lineare Ausgleichsproblems p. 2/7

22 Fortsetzung des letzten Beispiels (2) Es ist v = = 5 2, und hiermit nach Konstruktion P (2) 2 2 = 3 und P (2) 3 P (2) 5 = = (5, 2, ) (5, 2, ) 3 c = 5 5 = Lineare Ausgleichsproblems p. 22/7

23 Fortsetzung des letzten Beispiels (3) Das Ausgleichsproblem ist also äquivalent zu x = min! 2 Um die Dreiecksgestalt herzustellen, verwenden wir P (3) = E 2 2 wwt w 2 2 mit P (3) (.6.8 ) = r 33 e. Lineare Ausgleichsproblems p. 23/7

24 Fortsetzung des letzten Beispiels (4) Es ist w = (.6.8 ) + ( ) = (.6.8 ), und damit P (3) (.6.8 ) = ( ) (nach Konstruktion) P (3) (.2.4 ) = = ( ). Lineare Ausgleichsproblems p. 24/7

25 Fortsetzung des letzten Beispiels (5) Das Ausgleichsproblem ist also schließlich äquivalent zu x = min! 2 Die letzte Komponente kann man durch Wahl von x sicher nicht beeinflussen, die ersten drei Komponenten kann man alle zu Null machen, indem man das lineare Gleichungssystem löst x = x =.5 Lineare Ausgleichsproblems p. 25/7

26 Lineare Ausgleichsprobleme () Im allgemeinen Fall zerlegen wir b (k) = ( y z ), wobei y die ersten k Komponenten von b (k) und z die restlichen Komponenten enthält. Dann gilt A (k) x b (k) 2 2 = ( Rx ) ( y z ) 2 2 = Rx y z 2 2, und dieser Ausdruck wird sicher dann minimal, wenn der erste Summand verschwindet, d.h. wenn Rx = y. Lineare Ausgleichsproblems p. 26/7

27 Satz 7.8 Das lineare Ausgleichsproblem Bestimme x R n mit Ax b 2 = min! ist stets lösbar. Es ist eindeutig lösbar, wenn A unabhängige Spalten besitzt. Lineare Ausgleichsproblems p. 27/7

28 Beweis von Satz 7.8 Führt man das hergeleitete Verfahren für das Ausgleichsproblem durch, so gilt ( ) r ii = P (i) ã (i ) = ± ã(i ) 2, i =,...,k und daher ist das lineare Gleichungssystem Rx = y stets lösbar und damit auch das lineare Ausgleichsproblem. Rx = y ist genau dann eindeutig lösbar, wenn k = n gilt. Da die Multiplikation mit den regulären Matrizen Q (i) den Rang nicht ändert, gilt k = rang(r) = rang(a (k) ) = rang(a), und das Ausgleichsproblem ist genau dann eindeutig lösbar, wenn die Koeffizientenmatrix A linear unabhängige Spalten besitzt. Lineare Ausgleichsproblems p. 28/7

29 QR Zerlegung Besitzt A R (m,n) linear unabhängige Spalten, so kann man mit den eben konstruierten orthogonalen Matrizen Q (j) die Matrix A auf obere Dreiecksgestalt transformieren: Q (n) Q (n )... Q () A = R. Wegen der Orthogonalität und der Symmetrie der Q (j) erhält man hieraus A = Q ()... Q (n) R =: QR. Es gilt also Lineare Ausgleichsproblems p. 29/7

30 Satz 7.9 Die Matrix A R (m,n) besitze linear unabhängige Spalten. Dann gibt es eine orthogonale Matrix Q R (m,m) und eine reguläre obere Dreiecksmatrix R R (n,n), so dass gilt A = Q ( R ). Diese Zerlegung heißt die QR Zerlegung von A. Man kann die QR-Zerlegung einer Matrix mit Hilfe von Householder Transformationen bestimmen. Lineare Ausgleichsproblems p. 3/7

31 Bemerkung Ist A R (n,n) quadratisch und regulär und ist die QR-Zerlegung A = QR von A bekannt, so kann man (ähnlich wie mit der LR-Zerlegung) für jede rechte Seite b R n die Lösung des linearen Gleichungssystems Ax = b leicht bestimmen. Wir setzen nämlich y := Q T b und bestimmen dann durch Rückwärtseinsetzen die Lösung x von Rx = y. Dann gilt Ax = QRx = Qy = b. Lineare Ausgleichsproblems p. 3/7

32 Bemerkung (2) Der Aufwand zur Lösung eines linearen Gleichungssystems mit der QR-Zerlegung ist etwa doppelt so hoch wie der des Gaußschen Eliminationsverfahrens. Jedoch ist die QR-Zerlegung i.a., was Rundungsfehler und Stabilität betrifft, etwas günstiger als das Eliminationsverfahren. Lineare Ausgleichsproblems p. 32/7

33 Bemerkung Man beachte, dass die orthogonale Matrix Q dabei nur in y := Q T b benötigt wird. Wegen Q T = P (n )... P () kann die Multiplikation von b mit Q T durch die sukzessive Multiplikation mit den Matrizen P () bis P (n ) realisiert werden, ohne dass dafür die expliziten Matrixeinträge von Q bekannt sein müssen. Die Matrizen P (i) sind dabei (im wesentlichen) Householder-Matrizen, und werden ebenfalls nicht als volle Matrizen gespeichert oder multiplikativ angewendet. Lineare Ausgleichsproblems p. 33/7

34 Bemerkung (2) Vielmehr ist P (i) durch einen Vektor der Länge n i + voll charakterisiert. Der Speicheraufwand für die R-Matrix und die die P -Matrizen entspricht dem der ursprünglichen Matrix plus n weitere Plätze. Mit etwas Nachdenken kann die QR-Zerlegung der Matrix A ähnlich der Vorgehensweise bei der LR-Zerlegung so im Speicher von A sowie einem zusätzlichen Vektor vorgenommen werden. Lineare Ausgleichsproblems p. 34/7

35 Bemerkung Aus den obigen Ausführungen geht hervor, dass die QR-Zerlegung auch für Matrizen durchführbar ist, deren Spalten nicht linear unabhängig sind. In diesem Fall wird die R-Matrix ebenfalls nicht regulär werden. Wegen der während der Zerlegungsphase auftretenden algorithmischen Schwierigkeiten bei der Detektion der linearen Abhängigkeit wird hier auf die Darstellung dieses Falles verzichtet und auf Spezialvorlesungen über numerische Methoden verwiesen. Lineare Ausgleichsproblems p. 35/7

36 Gram-Schmidt Orthogonalisierung Alternativ kann man die QR Zerlegung mit dem Gram-Schmidt Prozess bestimmen, bei dem im j-ten Schritt, d.h. nachdem die ersten j Spalten q,...,q j von Q bereits bestimmt wurden, von der j-ten Spalte a j von A die Anteile in Richtung von q i, i =,...,j, abgezogen werden und der so bestimmte, zu den q i orthogonale Vektor normiert wird. q j = r jj ( a j ) j (q i ) T a j q i, wobei r jj so gewählt, dass q j =. i= j r ij q i = a j i= mit r ij := (q i ) T a j, i =,...,j, r jj = a j j i= r ij q i Lineare Ausgleichsproblems p. 36/7

37 Gram-Schmidt Orthogonalisierung (2) j r ij q i = a j i= mit r ij := (q i ) T a j, i =,...,j, r jj = a j j i= r ij q i A = ( a,...,a n) = ( q,...,q n) r r 2... r n r r 2n =: Q R... r nn Formal unterscheidet sich diese Zerlegung von der mit Householder Matrizen konstruierten QR Zerlegung, denn Q R (m,n) enthält nur eine Orthonormalbasis des von den Spalten von A aufgespannten Teilraums von R m. Diese lässt sich aber durch weitere m n orthonormale Spalten zu einer Orthonormalbasis von R m ergänzen. Man erhält dann eine QR Zerlegung wie vorher, wenn man R durch m n Nullzeilen ergänzt. Lineare Ausgleichsproblems p. 37/7

38 Die Normalgleichungen Wir leiten nun eine weitere notwendige und hinreichende Bedingung für die Lösung des linearen Ausgleichsproblems her. Die numerische Anwendung dieser Bedingung ist zwar i.a. rundungsfehleranfälliger als die schon demonstrierte Methode. Für die Handrechnung bei kleinen Problemen ist sie aber oft etwas angenehmer. Außerdem vermittelt sie wieder einmal gewisse strukturelle Einsichten in das Ausgleichsproblem. Lineare Ausgleichsproblems p. 38/7

39 Satz 7.2 Die Lösungen des Ausgleichsproblems Ax b 2 = min! sind genau die Lösungen der Normalgleichungen A T Ax = A T b. Lineare Ausgleichsproblems p. 39/7

40 Beweis von Satz 7.2 Es sei W := span{a,...,a n }. ỹ = A x W löst genau dann das Approximationsproblem ỹ b 2 y b 2 für alle y W, wenn ỹ die orthogonle Projektion von b auf W ist, und dies ist genau dann der Fall, wenn A x b W (a j ) T (A x b) =, j =,...,n A T (A x b) =. Lineare Ausgleichsproblems p. 4/7

41 Bemerkung Da A T A genau dann regulär ist, wenn ranga = n gilt (vgl. Kapitel 6), enthält Satz 7.2 die Eindeutigkeitsaussage von Satz 7.8. A T Ax = A T b ist auch dann stets lösbar ist, wenn A T A singulär ist. Die Normalgleichungen kann man als notwendige Bedingungen für das Minimum der Funktion φ(x) := Ax b 2 2 mit Methoden der Infinitesimalrechnung gewinnen. Lineare Ausgleichsproblems p. 4/7

42 Beispiel Für das Beispiel x 2 = min! lauten die Normalgleichungen A T Ax = x = A T b = mit der Lösung x = (.5,, ) T. Lineare Ausgleichsproblems p. 42/7

43 Bemerkung Die Normalgleichungen sind häufig wesentlich schlechter konditioniert (d.h. reagieren empfindlicher auf Fehler in den Eingangsdaten und auf Rundungsfehler bei der numerischen Lösung) als das Ausgleichsproblem und sollten nur für sehr kleine n verwendet werden. In der Regel ist das oben beschriebene Verfahren mit orthogonalen Transformationen des Originalproblems vorzuziehen. Lineare Ausgleichsproblems p. 43/7

44 Beispiel zur Abschreckung Bestimme p(t) = 2 a j t j j= mit i= wobei t i = 49 + i und b i = π + t i. (p(t i ) b i ) 2 = min!, Da die Daten exakt auf der Gerade ˆp(t) = π + t liegen, ist a = (a, a, a 2 ) T = (π,, ) T sicherlich eine Lösung (mit Defekt = ). Diese Lösung ist auch eindeutig. Lineare Ausgleichsproblems p. 44/7

45 Beispiel (2) Mit den Householder Transformationen erhält man die unten angegebene brauchbare Näherung ã. Löst man die Normalgleichungen mit dem Gaußschen Eliminationsverfahren, so erhält man als Näherung für die Lösung den Vektor â (die Rechnungen wurden auf dem IBM PS/2 unter Turbo Pascal 6. in einfacher Genauigkeit bei 7-8 Dezimalstellen ausgeführt), der sicherlich nicht befriedigen kann: ã = π â = π Lineare Ausgleichsproblems p. 45/7

46 Lineare diskrete Approximation Gegeben seien m Messpunkte (t j, b j ), j =,...,m, wobei die t j [a, b] R paarweise verschieden sind und b j R. Um hieraus eine funktionale Beziehung b = b(t), t [a, b], zu ermitteln, wählt man n Ansatzfunktionen φ k : [a, b] R, k =,..., n m, und bestimmt reelle Parameter x k so, dass ( m n ) 2 x k φ k (t j ) b j j= k= /2 = min!. ( ) Lineare Ausgleichsproblems p. 46/7

47 Lineare diskrete Approximation (2) Das Ausgleichsproblem (*) kann geschrieben werden als Ax b 2 = min! mit A = φ (t ) φ 2 (t )... φ n (t ) φ (t 2 ) φ 2 (t 2 )... φ n (t 2 ) φ (t m ) φ 2 (t m )... φ n (t m ), b = b b 2. b m. Lineare Ausgleichsproblems p. 47/7

48 Satz 7.8 Das lineare diskrete Approximationsproblem (*) ist genau dann eindeutig lösbar, wenn gilt n x k φ k (t j ) =, j =,...,m x k =, k =,...,n. ( ) k= In diesem Fall ist die Lösung die eindeutige Lösung des linearen Gleichungssystems n k= m φ i (t j )φ k (t j ) x k = j= m b j φ i (t j ), i =,...,n. (+) j= Lineare Ausgleichsproblems p. 48/7

49 Beweis von Satz 7.8 Die Bedingung (**) besagt gerade, dass die Matrix A linear unabhängige Spalten besitzt. Daher ist das Ausgleichsproblem eindeutig lösbar. Ist Bedingung (**) nicht erfüllt und gilt φ(t j ) = für alle j =,...,m für die Funktion n φ(t) = α k φ k (t), k= so ist wegen Aα = mit φ(t) auch φ(t) + λφ(t) für alle λ R eine Lösung des Ausgleichsproblems. (+) sind die Normalgleichungen A T A = A T b. Lineare Ausgleichsproblems p. 49/7

50 Haarsche Bedingung Bei der Überprüfung der Voraussetzung (**) ist die folgende Bedingung von besonderer Bedeutung (die auch in der Approximationstheorie bei Eindeutigkeitsfragen eine große Rolle spielt). Definition: Man sagt, dass die Funktionen φ j : [a, b], i =,...,n, auf dem Intervall [a, b] der Haarschen Bedingung genügen (oder dort ein Chebyshev System bilden), wenn jede Linearkombination φ(t) := n α j φ j (t) j= der φ j (t), für die nicht alle α j gleich sind, höchstens n Nullstellen in [a, b] besitzt. Lineare Ausgleichsproblems p. 5/7

51 Beispiel Wie wir bereits wissen, hat jedes Polynom p(t) = n i= α it i vom Höchstgrad n, dessen Koeffizienten α i nicht alle verschwinden, maximal n Nullstellen in C. Also hat ein solches Polynom auch maximal n Nullstellen in jedem reellen Intervall. Daher erfüllt jede Basis des Π n in jedem Teilintervall [a, b] von R die Haarsche Bedingung. Lineare Ausgleichsproblems p. 5/7

52 Beispiel 2 Es seien a k [a, b], k =,...,n, paarweise verschieden. φ k (t) = t a k, k =,...,n erfüllen die Haarsche Bedingung auf [a, b], denn n α k φ k (t) = n α k n (t a j ) =, k= k= j= j k und v k (t) := n (t a j ), j =,...,n j= j k bilden eine Basis des Π n. Lineare Ausgleichsproblems p. 52/7

53 Beispiel 3 Es seien a k <, k =,...,n, paarweise verschieden. Dann erfüllen (wie im letzten Beispiel) die Funktionen φ k (t) = t t + a k, k =,...,n, die Haarsche Bedingung in (, ). Lineare Ausgleichsproblems p. 53/7

54 Beispiel 4 Die Funktonen, sint, cos t, sin2t,...,sinnt, cos nt erfüllen die Haarsche Bedingung in jedem Teilintervall von [, 2π) (und genauso in jedem TeilIntervall von [ρ, ρ + 2π) R). Mit cos t = 2 (eit + e it ) und sint = 2i (eit e it ) gilt Lineare Ausgleichsproblems p. 54/7

55 Beispiel 4 (2) n n φ(t) := α + α k cos kt + β k sinkt = k= α + 2 k= n α k (e ikt + e ikt ) + 2i k= α e int i n β k (e ikt e ikt ) = k= n α k (e i(k+n)t + e i(n k)t ) k= n β k (e i(k+n)t e i(n k)t ) = k= n ( 2 α n k 2i β n k)(e it ) k + α (e it ) n k= n + ( 2 α k + 2i β k)(e it ) k+n =. k= Lineare Ausgleichsproblems p. 55/7

56 Beispiel 4 (3) Die Funktion auf der linken Seite der letzten Gleichung ist ein Polynom vom Grade 2n in der Variablen z := e it. Dieses hat höchstens 2n Nullstellen in C, wenn nicht seine Koeffizienten ( 2 α n k 2i β n k), k =,...,n, α, ( 2 α k + 2i β k), k =,...,n, allesamt verschwinden. Dies ist gleichbedeutend mit dem Verschwinden aller α und β Koeffizienten des ursprünglichen trigonometrischen Polynoms φ. Da die Funktion t e it jedes Intervall [ρ, ρ + 2π) bijektiv auf den Einheitskreis in C abbildet, besitzt φ höchstens 2n Nullstellen in [ρ, ρ + 2π), also auch höchstens 2n Nullstellen in jedem seiner Teilintervalle, und die Haarsche Bedingung ist demnach auf jedem solchen Intervall erfüllt. Lineare Ausgleichsproblems p. 56/7

57 Beispiel 5 Die Funktionen sinkt, k =,...,n, genügen der Haarschen Bedingung auf jedem Teilintervall [a, b] von (, π), denn besitzt die Funktion φ(t) = n α k sinkt k= die n Nullstellen t < < t n in [a, b], so hat φ wegen φ( t) = φ(t) für alle t im Intervall ( π, π) wenigstens die 2n + Nullstellen t n < < t < < t < < t n, und nach dem letzten Beispiel ist dies nur möglich, wenn alle α Koeffizienten verschwinden. Lineare Ausgleichsproblems p. 57/7

58 Beispiel 6 Sehr ähnlich wie im letzten Beispiel zeigt man, dass die Funktionen, cos t,...,cos nt in jedem Teilintervall von [, π) der Haarschen Bedingung genügen. Lineare Ausgleichsproblems p. 58/7

59 Satz 7.27 Erfüllen die Funktionen φ k : [a, b], k =,...,n, die Haarsche Bedingung in [a, b] und sind t j [a, b], j =,...,m, m n, paarweise verschieden, so besitzt das lineare diskrete Approximationsproblem für alle b j, j =,...,m, eine eindeutige Lösung. Beweis: Wir zeigen die Gültigkeit der Bedingung (**) aus Satz 7.9. Ist nämlich n α k φ k (t j ) = k= für alle j =,...,m, so besitzt die Funktion φ(t) := n α k φ k (t) k= im Intervall [a, b] wenigstens m n Nullstellen. Aus der Haarschen Bedingung folgt dann, dass α k = für alle k =,...,n ist. Lineare Ausgleichsproblems p. 59/7

60 Vandermondesche Matrix Aus Satz 7.27 folgt insbesondere für den Fall n = m, dass für jedes System φ k : [a, b] R, k =,...,n, von Funktionen, das auf [a, b] die Haarsche Bedingung erfüllt, und für alle paarweise verschiedenen t j [a, b], j =,...,n, die Matrix regulär ist. V = φ (t ) φ 2 (t )... φ n (t ) φ (t 2 ) φ 2 (t 2 )... φ n (t 2 ) φ (t n ) φ 2 (t n )... φ n (t n ) Die Matrix V heißt Vandermondesche Matrix zu {φ k : k =,...,n} und {t j : j =,...,n}, det(v ) heißt die Vandermondesche Determinante. Lineare Ausgleichsproblems p. 6/7

61 Vandermondesche Matrix (2) Die (klassische) Vandermondesche Matrix V = t... t n t 2... t n , t n+... t n n+ ist in diesem Sinne die Vandermonde Matrix zum System der Monome {t k : k =,,...,n} und den Punkten {t j : j =,...,n + }. Lineare Ausgleichsproblems p. 6/7

62 Vandermondesche Matrix (3) Aus der Regularität der Vandermondeschen Matrix folgt, dass das lineare Gleichungssystem V x = b für alle b R n eindeutig lösbar ist. Definiert man mit der Lösung x die Funktion φ(t) := n x k φ k (t), k= so erfüllt diese offenbar φ(t j ) = b j für alle j =,...,n, und sie ist die einzige Funktion in span{φ,...,φ n } mit dieser Eigenschaft. Damit gilt Lineare Ausgleichsproblems p. 62/7

63 Satz 7.29 Erfüllen die Funktionen φ k : [a, b], j =,...,n, die Haarsche Bedingung auf [a, b], so besitzt das Interpolationsproblem Bestimme bei gegebenen, paarweise verschiedenen t j [a, b] und gegebenen b j R, j =,...,n, eine Funktion φ(t) := n x k φ k (t) k= mit φ(t j ) = b j, j =,...,n. eine eindeutige Lösung. Lineare Ausgleichsproblems p. 63/7

64 Bemerkung Die Koeffizienten x k der interpolierenden Funktion φ lösen das lineare Gleichungssystem V x = b. Man sollte dieses Gleichungssystem aber nur in Ausnahmefällen zur Lösung des Interpolationsproblems verwenden, da die Vandermondesche Matrix häufig sehr schlecht konditioniert ist (die Lösung des Gleichungssystems also sehr empfindlich auf Rundungsfehler reagiert). Alternativ gibt es für viele Klassen von Funktionen (z.b. Polynome und trigonometrische Polynome) spezielle Algorithmen zur Berechnung der Interpolierenden, die stabiler sind und wesentlich weniger Aufwand erfordern. Lineare Ausgleichsproblems p. 64/7

65 Bemerkung Sind Messdaten (t j, b j ) R 2, j =,...,m, zur Bestimmung der Funktion b : R R gegeben und liegen keine Informationen über den Verlauf des Graphen von b vor, so werden oft als Ansatzfunktionen Polynome verwendet. Möglicherweise findet man es naheliegend, den Grad des Ansatz-Polynoms auch noch so groß zu wählen (= m), dass als Approximation für die Funktion b das Interpolationspolynom p Π m zu den Messdaten gebildet werden kann. Da man dann in den Messstellen t j die Daten mit dem Interpolationspolynom reproduziert, erwartet man auch zwischen den Messstellen eine gute Übereinstimmung mit b. Lineare Ausgleichsproblems p. 65/7

66 Bemerkung (2) Es zeigt sich häufig, dass das Interpolationspolynom sehr stark oszilliert und zur Beschreibung des untersuchten Vorgangs völlig ungeeignet ist. Dies ist insbesondere dann der Fall, wenn die Messungen fehlerhaft sind. Besser ist es, bei der polynomialen Approximation den Grad n klein gegen die Anzahl m der Datenpunkte zu wählen und die Approximation q Π n durch Ausgleich zu bestimmen. Lineare Ausgleichsproblems p. 66/7

67 Beispiel Die nächste Figur zeigt das Interpolationspolynom p Π 2 zu den Daten t i = b i = + 2i, i =,...,2, 2 wobei die b i mit einem zufälligen relativen Fehler von höchstens.% verschmutzt wurden, und das Ausgleichspolynom q vom Grade 2. Lineare Ausgleichsproblems p. 67/7

68 Beispiel (2) Lineare Ausgleichsproblems p. 68/7

69 Lineare Regression Besonders häufig tritt der Fall auf, dass zwischen den t j und b j ein linearer Zusammenhang angenommen wird: b j a t j + a, j =,...,m. Man spricht dann von linearer Regression. In diesem Fall ist die Matrix A = t.. t m, Lineare Ausgleichsproblems p. 69/7

70 Lineare Regression (2) Die Normalgleichungen A T Ax = A T b lauten m m t j j= m t j j= m t 2 j j= ( a a ) = m b j j= m j= t j b j, Lineare Ausgleichsproblems p. 7/7

71 Lineare Regression (3) mit der Lösung a = a = ( m )( j= b m j m ( m m j= t2 j ( m ) ) ( m j= t2 j ( m j= t j ) j= t jb j ( m ) m j= t2 j )( j= t m jb j j= t j ( m ) 2 j= t j ) ( m ) ( m j= t j j= b j ) 2. ) Lineare Ausgleichsproblems p. 7/7

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Brückenkurs Mathematik. Mittwoch Freitag

Brückenkurs Mathematik. Mittwoch Freitag Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

[5], [0] v 4 = + λ 3

[5], [0] v 4 = + λ 3 Aufgabe 9. Basen von Untervektorräumen. Bestimmen Sie Basen von den folgenden Untervektorräumen U K des K :. K = R und U R = span,,,,,.. K = C und U C = span + i, 6, i. i i + 0. K = Z/7Z und U Z/7Z = span

Mehr

4 Der Gauß Algorithmus

4 Der Gauß Algorithmus 4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Das inhomogene System. A x = b

Das inhomogene System. A x = b Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4

Mehr

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation; Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

3.6 Approximationstheorie

3.6 Approximationstheorie 3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

Lineare Gleichungssysteme: eine Ergänzung

Lineare Gleichungssysteme: eine Ergänzung Lineare Gleichungssysteme: eine Ergänzung Ein lineares Gleichungssystem, bei dem alle Einträge auf der rechten Seite gleich sind heiÿt homogenes lineares Gleichungssystem: a x + a 2 x 2 +... + a n x n

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya Rang einer Matrix 1-E1 Ma 1 Lubov Vassilevskaya Unterdeterminante einer nichtquadratischen Matrix M ist eine nichtquadratische 2,3-Matrix: M = 6 2 3 0 5 7 Durch Streichen einer der drei Spalten kann man

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Quadratische Matrizen Inverse und Determinante

Quadratische Matrizen Inverse und Determinante Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Skalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist

Skalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist Orthogonalität p. 1 Skalarprodukt Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind u := u 1 u 2. u n reelle n-tupel, dann ist und v := v 1 v 2. v n u v := u 1 v 1 + u 2

Mehr

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das

Mehr

Orthonormalbasis. Orthogonalentwicklung

Orthonormalbasis. Orthogonalentwicklung Orthonormalbasis Eine Orthogonal- oder Orthonormalbasis des R n (oder eines Teilraums) ist eine Basis {v,..., v n } mit v i = und v i, v j = für i j, d. h. alle Basisvektoren haben Norm und stehen senkrecht

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Klausur HM I H 2005 HM I : 1

Klausur HM I H 2005 HM I : 1 Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Mathematik IT 2 (Lineare Algebra)

Mathematik IT 2 (Lineare Algebra) Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof Dr L Cromme Mathematik IT (Lineare Algebra für die Studiengänge Informatik, IMT und ebusiness im Sommersemester 3 Lineare Gleichungssysteme

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a). Aufgabe Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = Es gilt det(λa = (λ n det(a det I n = n? Nein (außer für n = Es gilt deti n = det(ab = det A det B? Ja det(a =

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

2 Matrizenrechnung und Lineare Gleichungssysteme

2 Matrizenrechnung und Lineare Gleichungssysteme Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

9. Übung zur Linearen Algebra II -

9. Übung zur Linearen Algebra II - 9. Übung zur Linearen Algebra II - en Kommentare an [email protected] FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).

Mehr

Übungen zu Splines Lösungen zu Übung 20

Übungen zu Splines Lösungen zu Übung 20 Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte. Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Fachbereich Mathematik der Universität Hamburg WiSe / Dr Hanna Peywand Kiani 722 Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Lineare Differentialgleichungssysteme,

Mehr

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014 Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler [email protected] mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil

Mehr

Polynominterpolation

Polynominterpolation Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1 Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die

Mehr