Lineare Ausgleichsproblems
|
|
|
- Sarah Graf
- vor 8 Jahren
- Abrufe
Transkript
1 Lineare Ausgleichsproblems Heinrich Voss Hamburg University of Technology Department of Mathematics Lineare Ausgleichsproblems p. /7
2 Lineare Ausgleichsprobleme In (fast) allen Wissenschaftsbereichen begegnet man dem Problem, unbekannte Parameter eines funktionalen Zusammenhanges bestimmen zu müssen, dessen Struktur (abgesehen von den Werten der Parameter) etwa aus Naturgesetzen oder Modellannahmen bekannt ist. Lineare Ausgleichsproblems p. 2/7
3 Beispiel Um den Elastizitätsmodul E und die Querdehnungszahl ν eines elastischen Materials zu bestimmen, belastet man eine quaderförmige Probe in achsenparalleler Lage mit verschiedenen Normalspannungen (σ x, σ y, σ z ) und misst die resultierenden Dehnungen. 2 σ z.5 σ x σ y.5 σ y σ x σ z Lineare Ausgleichsproblems p. 3/7
4 Beispiel (2) Der Zusammenhang zwischen Spannung und Dehnung wird beschrieben durch das Hooksche Gesetz ε x ε y ε z = E ν ν ν ν ν ν σ x σ y σ z Führt man eine Messung durch, so werden diese 3 Gleichungen in 2 Unbekannten x =: /E und x 2 := ν/e σ x x + (σ y + σ z )x 2 = ε x σ y x + (σ x + σ z )x 2 = ε y σ z x + (σ x + σ y )x 2 = ε z i.a. einander widersprechen. Man versucht daher, sie möglichst gut in dem folgenden Sinne zu erfüllen. Lineare Ausgleichsproblems p. 4/7
5 Lineares Ausgleichsproblem Betrachte das lineare Ausgleichsproblem: Gegeben seien A R (m,n), b R m. Bestimme x R n, so dass minimal wird. Ax b 2 Das Ausgleichsproblem heißt linear, da die Parameter x nur linear in den Defekt Ax b eingehen. Lineare Ausgleichsproblems p. 5/7
6 Beispiel Die Höhe h einer Flüssigkeitssäule ist eine lineare Funktion der Temperatur h(t) = α + βt. Will man α und β bestimmen, so führt man m Messungen aus und bestimmt aus den Daten (T i, h i ), i =,...,m diese Parameter aus dem linearen Ausgleichsproblem Ax b 2 = min! mit A := T.. T m, x := ( α β ), b := h. h m Lineare Ausgleichsproblems p. 6/7
7 Beispiel 2 Wird statt der Ausgleichsgerade eine Ausgleichsparabel h(t) = α + βt + γt 2 zu den Daten (T i, h i ), i =,...,m, gewünscht, so ergibt sich das lineare Ausgleichsproblem Ax b 2 = min! mit A := T T 2... T m Tm 2, x := α β γ, b := h. h m. Lineare Ausgleichsproblems p. 7/7
8 Lineares Ausgleichsproblem (2) Bei der Lösung des linearen Ausgleichsproblems nutzen wir aus, dass die Transformation mit orthogonalen Matrizen die Euklidische Länge eines Vektors nicht verändert, d.h. für jede orthogonale Matrix Q R (m,m) (und jedes feste x R n ) gilt Ax b 2 = Q(Ax b) 2 = (QA)x Qb 2. Unser Ziel ist es, mit orthogonalen Transformationen Q (), Q (2),... die Systemmatrix A des linearen Ausgleichsproblems analog zur Vorgehensweise beim Gauß-Algorithmus für lineare Gleichungssysteme in eine obere Dreiecksmatrix zu transformieren. Lineare Ausgleichsproblems p. 8/7
9 Lineares Ausgleichsproblem (3) Ist A = O, so kann man x R n beliebig wählen, und das Ausgleichsproblem ist gelöst. Ist A O, so kann man o.b.d.a annehmen, dass die erste Spalte a von A vom Nullvektor verschieden ist (sonst Spaltentausch und Umnummerierung der Variablen). Lineare Ausgleichsproblems p. 9/7
10 Lineares Ausgleichsproblem (4) Wähle Q () als Householdermatrix, für die gilt Q () a = r e mit r = ± a 2. Dann gilt Q () A = r., Q() a 2,...,Q () a n Lineare Ausgleichsproblems p. /7
11 Lineares Ausgleichsproblem (5) Für alle x R n ist also Ax b 2 = ( Q () A ) x Q () b 2 =: A () x b () 2, wobei A () := Q () A = r. r 2,...,r n à (), b() := Q () b. Lineare Ausgleichsproblems p. /7
12 Beispiel Wir betrachten das lineare Ausgleichsproblem mit A = , b =. Die Householdermatrix Q () = E 4 2 wwt w 2 2 mit Q () = r e... Lineare Ausgleichsproblems p. 2/7
13 Beispiel (2) ist gegeben durch w := + 2 = 3. Hiermit gilt Q () = 2e (so ist Q () ja gerade konstruiert), und Lineare Ausgleichsproblems p. 3/7
14 Beispiel (3) Q () 3 3 = (3,,, ) 3 3 = Q () = (3,,, ) = 4 Q () = (3,,, ) = Lineare Ausgleichsproblems p. 4/7
15 Beispiel (4) Das Ausgleichsproblem ist also äquivalent zu Ax b 2 = min! x = min! 2 Lineare Ausgleichsproblems p. 5/7
16 Lineares Ausgleichsproblem (6) Ist Ã() =, so beenden wir die erste Phase des Verfahrens. Sonst können wir wieder o.b.d.a. annehmen, dass die erste Spalte ã () R m von Ã() nicht der Nullvektor ist. Wir wählen die Householdermatrix P (2) R (m,m ) mit P (2) ã () = r 22 e (hier bezeichnet e den ersten Einheitsvektor in R m ) und hiermit Q (2) =,...,. P (2) Lineare Ausgleichsproblems p. 6/7
17 Lineare Ausgleichsprobleme (7) Q (2) A () = = =.... P (2) r r 2 r 3... r n r r 2 r 3... r n.. ã () ã () 2... ã () n P (2) ã () P (2) ã 2... P (2) ã () n r r 2 r 3... r n r 22 r r 2n.. Ã (2) =: A (2) Lineare Ausgleichsproblems p. 7/7
18 Lineare Ausgleichsprobleme (8) und Ax b 2 = Q (2) A () x Q (2) b () 2 = A (2) x b (2) 2. Auf diese Weise kann man fortfahren, die Elemente unterhalb der Hauptdiagonale zu annullieren. Lineare Ausgleichsproblems p. 8/7
19 Lineare Ausgleichsprobleme (8) Man erhält schließlich (bei rundungsfehlerfreier Rechnung) Ax b 2 = A (k) x b (k) 2, mit A (k) = r r 2... r k r,k+... r n r r 2k r 2,k+... r 2n r kk r k,k+... r kn Lineare Ausgleichsproblems p. 9/7
20 Lineare Ausgleichsprobleme (9) Wie bei der Gaußschen Elimination wird man im Falle rundungsbehafteter Rechnung das Verschwinden der Restmatrix Ã(k) numerisch nicht feststellen können, da dort i.a. keine exakten Nullen stehen werden, sondern von Null verschiedene kleine Rundungsfehler. Man wird deshalb bei der numerischen Rechnung die Eliminationsphase abbrechen müssen, wenn die Größe der Restmatrix Ã(k) unter eine vorgegebene kleine Zahl fällt. Lineare Ausgleichsproblems p. 2/7
21 Fortsetzung des letzten Beispiels Der erste Schritt lieferte das äquivalente Ausgleichsproblem x = min! 2 Im zweiten Schritt bestimmen wir die Householder Matrix P (2) = E 3 2 vvt v 2 2 R (3,3) mit P (2) 2 2 = r 22 e. Lineare Ausgleichsproblems p. 2/7
22 Fortsetzung des letzten Beispiels (2) Es ist v = = 5 2, und hiermit nach Konstruktion P (2) 2 2 = 3 und P (2) 3 P (2) 5 = = (5, 2, ) (5, 2, ) 3 c = 5 5 = Lineare Ausgleichsproblems p. 22/7
23 Fortsetzung des letzten Beispiels (3) Das Ausgleichsproblem ist also äquivalent zu x = min! 2 Um die Dreiecksgestalt herzustellen, verwenden wir P (3) = E 2 2 wwt w 2 2 mit P (3) (.6.8 ) = r 33 e. Lineare Ausgleichsproblems p. 23/7
24 Fortsetzung des letzten Beispiels (4) Es ist w = (.6.8 ) + ( ) = (.6.8 ), und damit P (3) (.6.8 ) = ( ) (nach Konstruktion) P (3) (.2.4 ) = = ( ). Lineare Ausgleichsproblems p. 24/7
25 Fortsetzung des letzten Beispiels (5) Das Ausgleichsproblem ist also schließlich äquivalent zu x = min! 2 Die letzte Komponente kann man durch Wahl von x sicher nicht beeinflussen, die ersten drei Komponenten kann man alle zu Null machen, indem man das lineare Gleichungssystem löst x = x =.5 Lineare Ausgleichsproblems p. 25/7
26 Lineare Ausgleichsprobleme () Im allgemeinen Fall zerlegen wir b (k) = ( y z ), wobei y die ersten k Komponenten von b (k) und z die restlichen Komponenten enthält. Dann gilt A (k) x b (k) 2 2 = ( Rx ) ( y z ) 2 2 = Rx y z 2 2, und dieser Ausdruck wird sicher dann minimal, wenn der erste Summand verschwindet, d.h. wenn Rx = y. Lineare Ausgleichsproblems p. 26/7
27 Satz 7.8 Das lineare Ausgleichsproblem Bestimme x R n mit Ax b 2 = min! ist stets lösbar. Es ist eindeutig lösbar, wenn A unabhängige Spalten besitzt. Lineare Ausgleichsproblems p. 27/7
28 Beweis von Satz 7.8 Führt man das hergeleitete Verfahren für das Ausgleichsproblem durch, so gilt ( ) r ii = P (i) ã (i ) = ± ã(i ) 2, i =,...,k und daher ist das lineare Gleichungssystem Rx = y stets lösbar und damit auch das lineare Ausgleichsproblem. Rx = y ist genau dann eindeutig lösbar, wenn k = n gilt. Da die Multiplikation mit den regulären Matrizen Q (i) den Rang nicht ändert, gilt k = rang(r) = rang(a (k) ) = rang(a), und das Ausgleichsproblem ist genau dann eindeutig lösbar, wenn die Koeffizientenmatrix A linear unabhängige Spalten besitzt. Lineare Ausgleichsproblems p. 28/7
29 QR Zerlegung Besitzt A R (m,n) linear unabhängige Spalten, so kann man mit den eben konstruierten orthogonalen Matrizen Q (j) die Matrix A auf obere Dreiecksgestalt transformieren: Q (n) Q (n )... Q () A = R. Wegen der Orthogonalität und der Symmetrie der Q (j) erhält man hieraus A = Q ()... Q (n) R =: QR. Es gilt also Lineare Ausgleichsproblems p. 29/7
30 Satz 7.9 Die Matrix A R (m,n) besitze linear unabhängige Spalten. Dann gibt es eine orthogonale Matrix Q R (m,m) und eine reguläre obere Dreiecksmatrix R R (n,n), so dass gilt A = Q ( R ). Diese Zerlegung heißt die QR Zerlegung von A. Man kann die QR-Zerlegung einer Matrix mit Hilfe von Householder Transformationen bestimmen. Lineare Ausgleichsproblems p. 3/7
31 Bemerkung Ist A R (n,n) quadratisch und regulär und ist die QR-Zerlegung A = QR von A bekannt, so kann man (ähnlich wie mit der LR-Zerlegung) für jede rechte Seite b R n die Lösung des linearen Gleichungssystems Ax = b leicht bestimmen. Wir setzen nämlich y := Q T b und bestimmen dann durch Rückwärtseinsetzen die Lösung x von Rx = y. Dann gilt Ax = QRx = Qy = b. Lineare Ausgleichsproblems p. 3/7
32 Bemerkung (2) Der Aufwand zur Lösung eines linearen Gleichungssystems mit der QR-Zerlegung ist etwa doppelt so hoch wie der des Gaußschen Eliminationsverfahrens. Jedoch ist die QR-Zerlegung i.a., was Rundungsfehler und Stabilität betrifft, etwas günstiger als das Eliminationsverfahren. Lineare Ausgleichsproblems p. 32/7
33 Bemerkung Man beachte, dass die orthogonale Matrix Q dabei nur in y := Q T b benötigt wird. Wegen Q T = P (n )... P () kann die Multiplikation von b mit Q T durch die sukzessive Multiplikation mit den Matrizen P () bis P (n ) realisiert werden, ohne dass dafür die expliziten Matrixeinträge von Q bekannt sein müssen. Die Matrizen P (i) sind dabei (im wesentlichen) Householder-Matrizen, und werden ebenfalls nicht als volle Matrizen gespeichert oder multiplikativ angewendet. Lineare Ausgleichsproblems p. 33/7
34 Bemerkung (2) Vielmehr ist P (i) durch einen Vektor der Länge n i + voll charakterisiert. Der Speicheraufwand für die R-Matrix und die die P -Matrizen entspricht dem der ursprünglichen Matrix plus n weitere Plätze. Mit etwas Nachdenken kann die QR-Zerlegung der Matrix A ähnlich der Vorgehensweise bei der LR-Zerlegung so im Speicher von A sowie einem zusätzlichen Vektor vorgenommen werden. Lineare Ausgleichsproblems p. 34/7
35 Bemerkung Aus den obigen Ausführungen geht hervor, dass die QR-Zerlegung auch für Matrizen durchführbar ist, deren Spalten nicht linear unabhängig sind. In diesem Fall wird die R-Matrix ebenfalls nicht regulär werden. Wegen der während der Zerlegungsphase auftretenden algorithmischen Schwierigkeiten bei der Detektion der linearen Abhängigkeit wird hier auf die Darstellung dieses Falles verzichtet und auf Spezialvorlesungen über numerische Methoden verwiesen. Lineare Ausgleichsproblems p. 35/7
36 Gram-Schmidt Orthogonalisierung Alternativ kann man die QR Zerlegung mit dem Gram-Schmidt Prozess bestimmen, bei dem im j-ten Schritt, d.h. nachdem die ersten j Spalten q,...,q j von Q bereits bestimmt wurden, von der j-ten Spalte a j von A die Anteile in Richtung von q i, i =,...,j, abgezogen werden und der so bestimmte, zu den q i orthogonale Vektor normiert wird. q j = r jj ( a j ) j (q i ) T a j q i, wobei r jj so gewählt, dass q j =. i= j r ij q i = a j i= mit r ij := (q i ) T a j, i =,...,j, r jj = a j j i= r ij q i Lineare Ausgleichsproblems p. 36/7
37 Gram-Schmidt Orthogonalisierung (2) j r ij q i = a j i= mit r ij := (q i ) T a j, i =,...,j, r jj = a j j i= r ij q i A = ( a,...,a n) = ( q,...,q n) r r 2... r n r r 2n =: Q R... r nn Formal unterscheidet sich diese Zerlegung von der mit Householder Matrizen konstruierten QR Zerlegung, denn Q R (m,n) enthält nur eine Orthonormalbasis des von den Spalten von A aufgespannten Teilraums von R m. Diese lässt sich aber durch weitere m n orthonormale Spalten zu einer Orthonormalbasis von R m ergänzen. Man erhält dann eine QR Zerlegung wie vorher, wenn man R durch m n Nullzeilen ergänzt. Lineare Ausgleichsproblems p. 37/7
38 Die Normalgleichungen Wir leiten nun eine weitere notwendige und hinreichende Bedingung für die Lösung des linearen Ausgleichsproblems her. Die numerische Anwendung dieser Bedingung ist zwar i.a. rundungsfehleranfälliger als die schon demonstrierte Methode. Für die Handrechnung bei kleinen Problemen ist sie aber oft etwas angenehmer. Außerdem vermittelt sie wieder einmal gewisse strukturelle Einsichten in das Ausgleichsproblem. Lineare Ausgleichsproblems p. 38/7
39 Satz 7.2 Die Lösungen des Ausgleichsproblems Ax b 2 = min! sind genau die Lösungen der Normalgleichungen A T Ax = A T b. Lineare Ausgleichsproblems p. 39/7
40 Beweis von Satz 7.2 Es sei W := span{a,...,a n }. ỹ = A x W löst genau dann das Approximationsproblem ỹ b 2 y b 2 für alle y W, wenn ỹ die orthogonle Projektion von b auf W ist, und dies ist genau dann der Fall, wenn A x b W (a j ) T (A x b) =, j =,...,n A T (A x b) =. Lineare Ausgleichsproblems p. 4/7
41 Bemerkung Da A T A genau dann regulär ist, wenn ranga = n gilt (vgl. Kapitel 6), enthält Satz 7.2 die Eindeutigkeitsaussage von Satz 7.8. A T Ax = A T b ist auch dann stets lösbar ist, wenn A T A singulär ist. Die Normalgleichungen kann man als notwendige Bedingungen für das Minimum der Funktion φ(x) := Ax b 2 2 mit Methoden der Infinitesimalrechnung gewinnen. Lineare Ausgleichsproblems p. 4/7
42 Beispiel Für das Beispiel x 2 = min! lauten die Normalgleichungen A T Ax = x = A T b = mit der Lösung x = (.5,, ) T. Lineare Ausgleichsproblems p. 42/7
43 Bemerkung Die Normalgleichungen sind häufig wesentlich schlechter konditioniert (d.h. reagieren empfindlicher auf Fehler in den Eingangsdaten und auf Rundungsfehler bei der numerischen Lösung) als das Ausgleichsproblem und sollten nur für sehr kleine n verwendet werden. In der Regel ist das oben beschriebene Verfahren mit orthogonalen Transformationen des Originalproblems vorzuziehen. Lineare Ausgleichsproblems p. 43/7
44 Beispiel zur Abschreckung Bestimme p(t) = 2 a j t j j= mit i= wobei t i = 49 + i und b i = π + t i. (p(t i ) b i ) 2 = min!, Da die Daten exakt auf der Gerade ˆp(t) = π + t liegen, ist a = (a, a, a 2 ) T = (π,, ) T sicherlich eine Lösung (mit Defekt = ). Diese Lösung ist auch eindeutig. Lineare Ausgleichsproblems p. 44/7
45 Beispiel (2) Mit den Householder Transformationen erhält man die unten angegebene brauchbare Näherung ã. Löst man die Normalgleichungen mit dem Gaußschen Eliminationsverfahren, so erhält man als Näherung für die Lösung den Vektor â (die Rechnungen wurden auf dem IBM PS/2 unter Turbo Pascal 6. in einfacher Genauigkeit bei 7-8 Dezimalstellen ausgeführt), der sicherlich nicht befriedigen kann: ã = π â = π Lineare Ausgleichsproblems p. 45/7
46 Lineare diskrete Approximation Gegeben seien m Messpunkte (t j, b j ), j =,...,m, wobei die t j [a, b] R paarweise verschieden sind und b j R. Um hieraus eine funktionale Beziehung b = b(t), t [a, b], zu ermitteln, wählt man n Ansatzfunktionen φ k : [a, b] R, k =,..., n m, und bestimmt reelle Parameter x k so, dass ( m n ) 2 x k φ k (t j ) b j j= k= /2 = min!. ( ) Lineare Ausgleichsproblems p. 46/7
47 Lineare diskrete Approximation (2) Das Ausgleichsproblem (*) kann geschrieben werden als Ax b 2 = min! mit A = φ (t ) φ 2 (t )... φ n (t ) φ (t 2 ) φ 2 (t 2 )... φ n (t 2 ) φ (t m ) φ 2 (t m )... φ n (t m ), b = b b 2. b m. Lineare Ausgleichsproblems p. 47/7
48 Satz 7.8 Das lineare diskrete Approximationsproblem (*) ist genau dann eindeutig lösbar, wenn gilt n x k φ k (t j ) =, j =,...,m x k =, k =,...,n. ( ) k= In diesem Fall ist die Lösung die eindeutige Lösung des linearen Gleichungssystems n k= m φ i (t j )φ k (t j ) x k = j= m b j φ i (t j ), i =,...,n. (+) j= Lineare Ausgleichsproblems p. 48/7
49 Beweis von Satz 7.8 Die Bedingung (**) besagt gerade, dass die Matrix A linear unabhängige Spalten besitzt. Daher ist das Ausgleichsproblem eindeutig lösbar. Ist Bedingung (**) nicht erfüllt und gilt φ(t j ) = für alle j =,...,m für die Funktion n φ(t) = α k φ k (t), k= so ist wegen Aα = mit φ(t) auch φ(t) + λφ(t) für alle λ R eine Lösung des Ausgleichsproblems. (+) sind die Normalgleichungen A T A = A T b. Lineare Ausgleichsproblems p. 49/7
50 Haarsche Bedingung Bei der Überprüfung der Voraussetzung (**) ist die folgende Bedingung von besonderer Bedeutung (die auch in der Approximationstheorie bei Eindeutigkeitsfragen eine große Rolle spielt). Definition: Man sagt, dass die Funktionen φ j : [a, b], i =,...,n, auf dem Intervall [a, b] der Haarschen Bedingung genügen (oder dort ein Chebyshev System bilden), wenn jede Linearkombination φ(t) := n α j φ j (t) j= der φ j (t), für die nicht alle α j gleich sind, höchstens n Nullstellen in [a, b] besitzt. Lineare Ausgleichsproblems p. 5/7
51 Beispiel Wie wir bereits wissen, hat jedes Polynom p(t) = n i= α it i vom Höchstgrad n, dessen Koeffizienten α i nicht alle verschwinden, maximal n Nullstellen in C. Also hat ein solches Polynom auch maximal n Nullstellen in jedem reellen Intervall. Daher erfüllt jede Basis des Π n in jedem Teilintervall [a, b] von R die Haarsche Bedingung. Lineare Ausgleichsproblems p. 5/7
52 Beispiel 2 Es seien a k [a, b], k =,...,n, paarweise verschieden. φ k (t) = t a k, k =,...,n erfüllen die Haarsche Bedingung auf [a, b], denn n α k φ k (t) = n α k n (t a j ) =, k= k= j= j k und v k (t) := n (t a j ), j =,...,n j= j k bilden eine Basis des Π n. Lineare Ausgleichsproblems p. 52/7
53 Beispiel 3 Es seien a k <, k =,...,n, paarweise verschieden. Dann erfüllen (wie im letzten Beispiel) die Funktionen φ k (t) = t t + a k, k =,...,n, die Haarsche Bedingung in (, ). Lineare Ausgleichsproblems p. 53/7
54 Beispiel 4 Die Funktonen, sint, cos t, sin2t,...,sinnt, cos nt erfüllen die Haarsche Bedingung in jedem Teilintervall von [, 2π) (und genauso in jedem TeilIntervall von [ρ, ρ + 2π) R). Mit cos t = 2 (eit + e it ) und sint = 2i (eit e it ) gilt Lineare Ausgleichsproblems p. 54/7
55 Beispiel 4 (2) n n φ(t) := α + α k cos kt + β k sinkt = k= α + 2 k= n α k (e ikt + e ikt ) + 2i k= α e int i n β k (e ikt e ikt ) = k= n α k (e i(k+n)t + e i(n k)t ) k= n β k (e i(k+n)t e i(n k)t ) = k= n ( 2 α n k 2i β n k)(e it ) k + α (e it ) n k= n + ( 2 α k + 2i β k)(e it ) k+n =. k= Lineare Ausgleichsproblems p. 55/7
56 Beispiel 4 (3) Die Funktion auf der linken Seite der letzten Gleichung ist ein Polynom vom Grade 2n in der Variablen z := e it. Dieses hat höchstens 2n Nullstellen in C, wenn nicht seine Koeffizienten ( 2 α n k 2i β n k), k =,...,n, α, ( 2 α k + 2i β k), k =,...,n, allesamt verschwinden. Dies ist gleichbedeutend mit dem Verschwinden aller α und β Koeffizienten des ursprünglichen trigonometrischen Polynoms φ. Da die Funktion t e it jedes Intervall [ρ, ρ + 2π) bijektiv auf den Einheitskreis in C abbildet, besitzt φ höchstens 2n Nullstellen in [ρ, ρ + 2π), also auch höchstens 2n Nullstellen in jedem seiner Teilintervalle, und die Haarsche Bedingung ist demnach auf jedem solchen Intervall erfüllt. Lineare Ausgleichsproblems p. 56/7
57 Beispiel 5 Die Funktionen sinkt, k =,...,n, genügen der Haarschen Bedingung auf jedem Teilintervall [a, b] von (, π), denn besitzt die Funktion φ(t) = n α k sinkt k= die n Nullstellen t < < t n in [a, b], so hat φ wegen φ( t) = φ(t) für alle t im Intervall ( π, π) wenigstens die 2n + Nullstellen t n < < t < < t < < t n, und nach dem letzten Beispiel ist dies nur möglich, wenn alle α Koeffizienten verschwinden. Lineare Ausgleichsproblems p. 57/7
58 Beispiel 6 Sehr ähnlich wie im letzten Beispiel zeigt man, dass die Funktionen, cos t,...,cos nt in jedem Teilintervall von [, π) der Haarschen Bedingung genügen. Lineare Ausgleichsproblems p. 58/7
59 Satz 7.27 Erfüllen die Funktionen φ k : [a, b], k =,...,n, die Haarsche Bedingung in [a, b] und sind t j [a, b], j =,...,m, m n, paarweise verschieden, so besitzt das lineare diskrete Approximationsproblem für alle b j, j =,...,m, eine eindeutige Lösung. Beweis: Wir zeigen die Gültigkeit der Bedingung (**) aus Satz 7.9. Ist nämlich n α k φ k (t j ) = k= für alle j =,...,m, so besitzt die Funktion φ(t) := n α k φ k (t) k= im Intervall [a, b] wenigstens m n Nullstellen. Aus der Haarschen Bedingung folgt dann, dass α k = für alle k =,...,n ist. Lineare Ausgleichsproblems p. 59/7
60 Vandermondesche Matrix Aus Satz 7.27 folgt insbesondere für den Fall n = m, dass für jedes System φ k : [a, b] R, k =,...,n, von Funktionen, das auf [a, b] die Haarsche Bedingung erfüllt, und für alle paarweise verschiedenen t j [a, b], j =,...,n, die Matrix regulär ist. V = φ (t ) φ 2 (t )... φ n (t ) φ (t 2 ) φ 2 (t 2 )... φ n (t 2 ) φ (t n ) φ 2 (t n )... φ n (t n ) Die Matrix V heißt Vandermondesche Matrix zu {φ k : k =,...,n} und {t j : j =,...,n}, det(v ) heißt die Vandermondesche Determinante. Lineare Ausgleichsproblems p. 6/7
61 Vandermondesche Matrix (2) Die (klassische) Vandermondesche Matrix V = t... t n t 2... t n , t n+... t n n+ ist in diesem Sinne die Vandermonde Matrix zum System der Monome {t k : k =,,...,n} und den Punkten {t j : j =,...,n + }. Lineare Ausgleichsproblems p. 6/7
62 Vandermondesche Matrix (3) Aus der Regularität der Vandermondeschen Matrix folgt, dass das lineare Gleichungssystem V x = b für alle b R n eindeutig lösbar ist. Definiert man mit der Lösung x die Funktion φ(t) := n x k φ k (t), k= so erfüllt diese offenbar φ(t j ) = b j für alle j =,...,n, und sie ist die einzige Funktion in span{φ,...,φ n } mit dieser Eigenschaft. Damit gilt Lineare Ausgleichsproblems p. 62/7
63 Satz 7.29 Erfüllen die Funktionen φ k : [a, b], j =,...,n, die Haarsche Bedingung auf [a, b], so besitzt das Interpolationsproblem Bestimme bei gegebenen, paarweise verschiedenen t j [a, b] und gegebenen b j R, j =,...,n, eine Funktion φ(t) := n x k φ k (t) k= mit φ(t j ) = b j, j =,...,n. eine eindeutige Lösung. Lineare Ausgleichsproblems p. 63/7
64 Bemerkung Die Koeffizienten x k der interpolierenden Funktion φ lösen das lineare Gleichungssystem V x = b. Man sollte dieses Gleichungssystem aber nur in Ausnahmefällen zur Lösung des Interpolationsproblems verwenden, da die Vandermondesche Matrix häufig sehr schlecht konditioniert ist (die Lösung des Gleichungssystems also sehr empfindlich auf Rundungsfehler reagiert). Alternativ gibt es für viele Klassen von Funktionen (z.b. Polynome und trigonometrische Polynome) spezielle Algorithmen zur Berechnung der Interpolierenden, die stabiler sind und wesentlich weniger Aufwand erfordern. Lineare Ausgleichsproblems p. 64/7
65 Bemerkung Sind Messdaten (t j, b j ) R 2, j =,...,m, zur Bestimmung der Funktion b : R R gegeben und liegen keine Informationen über den Verlauf des Graphen von b vor, so werden oft als Ansatzfunktionen Polynome verwendet. Möglicherweise findet man es naheliegend, den Grad des Ansatz-Polynoms auch noch so groß zu wählen (= m), dass als Approximation für die Funktion b das Interpolationspolynom p Π m zu den Messdaten gebildet werden kann. Da man dann in den Messstellen t j die Daten mit dem Interpolationspolynom reproduziert, erwartet man auch zwischen den Messstellen eine gute Übereinstimmung mit b. Lineare Ausgleichsproblems p. 65/7
66 Bemerkung (2) Es zeigt sich häufig, dass das Interpolationspolynom sehr stark oszilliert und zur Beschreibung des untersuchten Vorgangs völlig ungeeignet ist. Dies ist insbesondere dann der Fall, wenn die Messungen fehlerhaft sind. Besser ist es, bei der polynomialen Approximation den Grad n klein gegen die Anzahl m der Datenpunkte zu wählen und die Approximation q Π n durch Ausgleich zu bestimmen. Lineare Ausgleichsproblems p. 66/7
67 Beispiel Die nächste Figur zeigt das Interpolationspolynom p Π 2 zu den Daten t i = b i = + 2i, i =,...,2, 2 wobei die b i mit einem zufälligen relativen Fehler von höchstens.% verschmutzt wurden, und das Ausgleichspolynom q vom Grade 2. Lineare Ausgleichsproblems p. 67/7
68 Beispiel (2) Lineare Ausgleichsproblems p. 68/7
69 Lineare Regression Besonders häufig tritt der Fall auf, dass zwischen den t j und b j ein linearer Zusammenhang angenommen wird: b j a t j + a, j =,...,m. Man spricht dann von linearer Regression. In diesem Fall ist die Matrix A = t.. t m, Lineare Ausgleichsproblems p. 69/7
70 Lineare Regression (2) Die Normalgleichungen A T Ax = A T b lauten m m t j j= m t j j= m t 2 j j= ( a a ) = m b j j= m j= t j b j, Lineare Ausgleichsproblems p. 7/7
71 Lineare Regression (3) mit der Lösung a = a = ( m )( j= b m j m ( m m j= t2 j ( m ) ) ( m j= t2 j ( m j= t j ) j= t jb j ( m ) m j= t2 j )( j= t m jb j j= t j ( m ) 2 j= t j ) ( m ) ( m j= t j j= b j ) 2. ) Lineare Ausgleichsproblems p. 7/7
Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
Methode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
Aufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben
Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen
Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
Brückenkurs Mathematik. Mittwoch Freitag
Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs
Überbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
5.7 Lineare Abhängigkeit, Basis und Dimension
8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n
a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
Eigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
[5], [0] v 4 = + λ 3
Aufgabe 9. Basen von Untervektorräumen. Bestimmen Sie Basen von den folgenden Untervektorräumen U K des K :. K = R und U R = span,,,,,.. K = C und U C = span + i, 6, i. i i + 0. K = Z/7Z und U Z/7Z = span
4 Der Gauß Algorithmus
4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x
Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
Das inhomogene System. A x = b
Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Lineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Lineare Gleichungssysteme
Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4
Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;
Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen
Der CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
3.6 Approximationstheorie
3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum
Ausgewählte Lösungen zu den Übungsblättern 4-5
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit
Rechenaufwand der LR- und LDL T - Zerlegung
6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
Lineare Abhängigkeit
Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x
Lineare Gleichungssysteme: eine Ergänzung
Lineare Gleichungssysteme: eine Ergänzung Ein lineares Gleichungssystem, bei dem alle Einträge auf der rechten Seite gleich sind heiÿt homogenes lineares Gleichungssystem: a x + a 2 x 2 +... + a n x n
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
Skalarprodukte (Teschl/Teschl Kap. 13)
Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +
Matrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
Lineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
3. Übungsblatt zur Lineare Algebra I für Physiker
Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte
Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya
Rang einer Matrix 1-E1 Ma 1 Lubov Vassilevskaya Unterdeterminante einer nichtquadratischen Matrix M ist eine nichtquadratische 2,3-Matrix: M = 6 2 3 0 5 7 Durch Streichen einer der drei Spalten kann man
Serie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
Der Kern einer Matrix
Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis
Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,
Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige
(Allgemeine) Vektorräume (Teschl/Teschl 9)
(Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:
Quadratische Matrizen Inverse und Determinante
Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen
2. Spezielle anwendungsrelevante Funktionen
2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für
2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
Lineare Gleichungssysteme und Matrizen
Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x
Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen
Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
Skalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist
Orthogonalität p. 1 Skalarprodukt Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind u := u 1 u 2. u n reelle n-tupel, dann ist und v := v 1 v 2. v n u v := u 1 v 1 + u 2
Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
Orthonormalbasis. Orthogonalentwicklung
Orthonormalbasis Eine Orthogonal- oder Orthonormalbasis des R n (oder eines Teilraums) ist eine Basis {v,..., v n } mit v i = und v i, v j = für i j, d. h. alle Basisvektoren haben Norm und stehen senkrecht
4.1. Vektorräume und lineare Abbildungen
4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
Klausur HM I H 2005 HM I : 1
Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k
5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
Mathematik IT 2 (Lineare Algebra)
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof Dr L Cromme Mathematik IT (Lineare Algebra für die Studiengänge Informatik, IMT und ebusiness im Sommersemester 3 Lineare Gleichungssysteme
2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $
Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit
18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
β 1 x :=., und b :=. K n β m
44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix
Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).
Aufgabe Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = Es gilt det(λa = (λ n det(a det I n = n? Nein (außer für n = Es gilt deti n = det(ab = det A det B? Ja det(a =
Übungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
3.4 Der Gaußsche Algorithmus
94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,
Serie 8: Fakultativer Online-Test
Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung
Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
8 Polynominterpolation
8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum
2 Matrizenrechnung und Lineare Gleichungssysteme
Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der
Lineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
9. Übung zur Linearen Algebra II -
9. Übung zur Linearen Algebra II - en Kommentare an [email protected] FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).
Übungen zu Splines Lösungen zu Übung 20
Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)
1 Lineare Gleichungssysteme und Matrizen
1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe
Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.
Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische
45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften
Fachbereich Mathematik der Universität Hamburg WiSe / Dr Hanna Peywand Kiani 722 Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Lineare Differentialgleichungssysteme,
Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014
Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................
Inexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
Kapitel 13. Lineare Gleichungssysteme und Basen
Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x
Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)
Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung
4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
Vorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler [email protected] mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil
Polynominterpolation
Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses
Übungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax
++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1
Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die
