5 Lineare Ausgleichsrechnung

Größe: px
Ab Seite anzeigen:

Download "5 Lineare Ausgleichsrechnung"

Transkript

1 Numerik Lineare Ausgleichsrechnung 5.1 Die Normalgleichungen 5.2 Singulärwertzerlegung 5.3 Pseudoinverse 5.4 Orthogonale Matrizen und QR-Zerlegung 5.5 Kondition des Ausgleichsproblems 5.6 Ausgleichspolynome 5 Lineare Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

2 Numerik Die Normalgleichungen Das lineare Ausgleichsproblem (Kleinste-Quadrate-Problem, engl. least squares problem): Gegeben sind A R m n und b R m. Gesucht ist ein Vektor x R n mit b Ax 2 = min x R n b Ax 2. (LS) Andere Formulierung: Bei gegebenen A und b ist jedem x R n durch r x := b Ax ein Residualvektor (Residuum, Defekt) r x zugeordnet, der misst, wie gut x das Gleichungssystem Ax = b erfüllt. Wir wollen einen Vektor x bestimmen, dessen Residuum (gemessen in der Euklid-Norm) so klein wie möglich ist. Beachte: Ist Ax = b lösbar, dann ist x eine Lösung. 5.1 Die Normalgleichungen TU Bergakademie Freiberg, WS 211/12

3 Numerik 21 Satz 5.1. Gegeben seien A R m n mit m n sowie b R m. Dann gilt: (a) Ein Vektor x R n ist genau dann eine Lösung von (LS), wenn A r x = (äquivalent: r x 2 R(A)) gilt. Folglich sind die Lösungen von (LS) genau die Lösungen der Normalgleichungen A Ax = A b. (NG) (b) (NG) ist ein LGS mit einer quadratischen Koeffizientenmatrix, die symmetrisch und positiv semidefinit ist. Außerdem sind die Normalgleichungen immer lösbar, d.h. (LS) besitzt mindestens eine Lösung. (c) Ist rank(a) = n, so ist A A positiv definit, also invertierbar und (LS) besitzt genau eine Lösung x = (A A) 1 A b. 5.1 Die Normalgleichungen TU Bergakademie Freiberg, WS 211/12

4 Numerik 22 Bemerkungen. (a) Ist x Lösung von (LS) bzw. (NG), so ist b = Ax + r x die eindeutige Zerlegung von b in Komponenten aus R(A) und R(A) = N (A ). Insbesondere gelten für zwei Lösungen x, y von (LS) bzw. (NG) Ax = Ay und r x = r y. (b) x löst (LS) genau dann, wenn [ Im A ] [ ] rx [ ] b A O n x =. 5.1 Die Normalgleichungen TU Bergakademie Freiberg, WS 211/12

5 Numerik 23 Zur Lösung eines linearen Ausgleichsproblems bietet sich somit folgendes Vorgehen an: 1: Stelle die Normalgleichungen auf. 2: Löse die Normalgleichungen durch Gauß-Elimination. Beachte: A A ist immer symmetrisch. Besitzt A vollen Spaltenrang, so ist A A sogar positiv definit, besitzt also eine Cholesky-Zerlegung. Allerdings: Weil die Konditionszahl der Koeffizientenmatrix A A von (NG) sehr groß werden kann, auch wenn A selbst nicht extrem schlecht konditioniert ist, ist dieses Verfahren nicht immer zu empfehlen. Genauer: es gilt cond 2 (A A) = cond 2 (A) 2. Hierbei sei die Konditionszahl einer nichtquadratischen Matrizen A durch cond(a) = max x =1 Ax min x =1,Ax Ax (vorläufig) definiert. Man mache sich klar, dass dies eine Verallgemeinerung der bisherigen Definition darstellt. 5.1 Die Normalgleichungen TU Bergakademie Freiberg, WS 211/12

6 Numerik 24 Beispiel. Bestimme Ausgleichsgerade durch (, ), (1, 2), (2, 1) bzw. löse das Ausgleichsproblem 1 [ ] α α min Normalgleichungen: [ ] [ α α 1 ] = [ 3 4 ]. 2. Cholesky-Zerlegung: [ ] = LL mit L = [ ]. Ergebnis: x = [α, α 1 ] = [.5,.5], die Ausgleichsgerade ist also y =.5 +.5x mit dem Kleinsten-Quadrate-Fehler [ 3 i=1 y i (α + α 1 x i ) 2 ] 1/2 = [ (.5) 2 + (2 1) 2 + (1 1.5) 2] 1/2 = Die Normalgleichungen TU Bergakademie Freiberg, WS 211/12

7 Numerik 25 2 (1,2) (2,1) y=.5+.5x.5.5 (,) Die Normalgleichungen TU Bergakademie Freiberg, WS 211/12

8 Numerik Die Singulärwertzerlegung Satz 5.2. Sei A R m n eine Matrix vom Rang r. Dann gibt es orthogonale Matrizen U R m m und V R n n sowie eine Diagonalmatrix [ ] Σr O Σ = R m n mit Σ r = diag(σ 1, σ 2,..., σ r ) R r r O O und σ 1 σ 2 σ r >, so dass A die Zerlegung A = UΣV (SVD) besitzt. Die Darstellung (SVD) heißt Singulärwertzerlegung von A. Die positiven Zahlen σ i nennt man die Singulärwerte von A. Schreibt man U = [u 1, u 2,..., u m ] und V = [v 1, v 2,..., v n ], so heißen u i R m bzw. v i R n zugehörige linke bzw. rechte Singulärvektoren. 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

9 Numerik 27 Bemerkungen. 1. A = UΣV = r i=1 σ iu i v i = [u 1, u 2,..., u r ] Σ r [v 1, v 2,..., v r ] (Darstellung von A als Summe von r Rang-1-Matrizen). 2. Es gelten: Av i = { σi u i (i = 1, 2,..., r), (i = r + 1, r + 2,..., n) und 3. A u i = { σi v i (i = 1, 2,..., r), (i = r + 1, r + 2,..., m). {u 1,..., u r } ist eine ON-Basis von R(A). {u r+1,..., u m } ist eine ON-Basis von N (A ) = R(A). {v 1,..., v r } ist eine ON-Basis von R(A ) = N (A). {v r+1,..., v n } ist eine ON-Basis von N (A). 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

10 Numerik A A = V Σ ΣV = V [ ] Σ 2 r O V, AA = UΣΣ U = U O O [ ] Σ 2 r O U. O O σ 2 1,..., σ 2 r sind die von Null verschiedenen Eigenwerte von A A bzw. AA. Insbesondere sind die Singulärwerte σ 1,..., σ r durch A eindeutig festgelegt. Die rechten Singulärvektoren v 1,..., v n bilden eine ON-Basis des R n aus Eigenvektoren von A A: A Av i = { σ 2 i v i (i = 1, 2,..., r), (i = r + 1, r + 2,..., n). Die linken Singulärvektoren u 1,..., u m bilden eine ON-Basis des R m aus Eigenvektoren von AA : AA u i = { σ 2 i u i (i = 1, 2,..., r), (i = r + 1, r + 2,..., m). 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

11 Numerik Ist A R n n symmetrisch mit von Null verschiedenen Eigenwerten λ 1,..., λ r, λ 1 λ r >, dann sind σ i = λ i die Singulärwerte von A. 6. Das Bild der (n-dimensionalen) Einheitskugel unter A ist ein Ellipsoid (im R m ) mit Mittelpunkt und Halbachsen σ i u i (σ i := für i > r). 7. Für A R m n gilt A 2 = σ 1. Ist A R n n invertierbar, gilt außerdem A 1 2 = σ 1 n und cond 2 (A) = σ 1 /σ n. 8. Besitzt A R m n die SVD A = UΣV, dann besitzt [ ] O A H = R (m+n) (m+n) A O die von Null verschiedenen Eigenwerte ±σ i mit zugehörigen (normierten) Eigenvektoren 1 2 [v i, ±u i ]. 9. Analoge Aussagen gelten für komplexe Matrizen A = UΣV H (U, V unitär). (Ersetze in 5. symmetrisch durch normal!) 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

12 Numerik 21 Geometrische Interpretation der SVD. Besitzt A R m n die SVD [ ] Σr O A = U V O O mit Σ r = diag(σ 1, σ 2,..., σ r ), U = [u 1, u 2,..., u m ] und V = [v 1, v 2,..., v n ], so kann man die Abbildungseigenschaften von A (und A ) leicht beschreiben (vgl. Bemerkung 2). Beispiel: = [ ] (Werte auf 2 Dezimalstellen gerundet). 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

13 Numerik u 1 v 1 v 2 x 3 u 2 u 3 x x x x 1 Av 1 = 2.68u 1, A u 1 = 2.68v 1, Av 2 =.92u 2, A u 2 =.92v 2, A u 3 =. 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

14 Numerik 212 Satz 5.3. Es sei A R m n eine Matrix vom Rang r mit SVD A = UΣV = U [ ] Σ r O O O V. Dann löst [ ] Σ 1 r O x = V U b O O die lineare Ausgleichsaufgabe (LS). Darüberhinaus ist x die eindeutig bestimmte Lösung von (LS) mit minimaler Euklid-Norm. Satz 5.4 (Schmidt, 197; Eckart & Young, 1936; Mirsky, 196). Für eine Matrix A R m n vom Rang r mit SVD A = UΣV besitzt die Approximationsaufgabe für k < r die Lösung min{ A B 2 : B R m n und rank(b) k} A k := k σ i u i vi mit A A k 2 = σ k+1. i=1 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

15 Numerik 213 Anwendung der SVD in der Datenkompression: Die folgende Grafik zeigt (links oben) das magische Quadrat aus Albrecht Dürers Melancholie I (1514). Die Bildinformation ist in einer Pixelmatrix X der Dimension gespeichert, deren Einträge ganze Zahlen zwischen 1 und 64 verschiedene Graustufen repräsentieren. Wir approximieren X durch Matrizen niedrigen Rangs k (vgl. Satz 5.4): load detail.mat; [U,S,V]=svd(X); X_k=U(:,1:k)*S(1:k,1:k)*V(:,1:k) ; image(x_k), colormap( gray ), axis( image ), axis( off ) Zur Speicherung von X k sind k(m + n) = 73k Zahlen (statt mn = für X) erforderlich. 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

16 Numerik 214 Original k=1 k=2 k=4 5.2 Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

17 Numerik 215 k Relativer Fehler σ k+1 /σ 1 Kompressionsrate Die Singulärwertzerlegung TU Bergakademie Freiberg, WS 211/12

18 Numerik Die Pseudoinverse Es sei A R m n eine Matrix vom Rang r mit SVD A = U [ ] Σ r O O O V. Dann heißt [ ] Σ A 1 r O := V U R n m O O die (Moore-Penrose) Pseudoinverse von A. Satz 5.5. Für A R m n gelten die folgenden Aussagen: (P1): A AA = A, (P2): AA A = A, (P3): (AA ) = AA, (P4): (A A) = A A. Darüberhinaus ist A R n m durch die Eigenschaften (P1) (P4) eindeutig bestimmt. 5.3 Die Pseudoinverse TU Bergakademie Freiberg, WS 211/12

19 Numerik 217 Bemerkungen: (1) A b ist die Kleinste-Quadrate-Lösung von Ax = b mit minimaler Euklid- Norm. (2) Für m n = r gilt A = (A A) 1 A. Ist zusätzlich m = n, so folgt A = A 1. (3) Für n m = r gilt A = A (AA ) 1. In diesem Fall löst A b das Problem x 2 min unter allen x mit Ax = b. Satz 5.6. Es sei V ein Unterraum des R n. Dann gibt es genau eine Matrix P = P V R n n mit (a) R(P ) = V, (b) P 2 = P, und (c) P = P. P heißt orthogonale Projektion auf V und ist durch P x = { x, x V,, x V, eindeutig bestimmt. 5.3 Die Pseudoinverse TU Bergakademie Freiberg, WS 211/12

20 Numerik 218 Satz 5.7. Es sei A R m n eine Matrix vom Rang r mit SVD ] A = UΣV = [U [ ] [ ] Σ r O V 1 1 U 2 O O V2 ( U 1 R m r, U 2 R m (m r), V 1 R n r, V 2 R n (n r) ) und der Pseudoinversen A. Dann gelten: P R(A) = AA = U 1 U 1, P N (A) = I n A A = V 2 V 2, P R(A ) = A A = V 1 V 1, P N (A ) = I m AA = U 2 U Die Pseudoinverse TU Bergakademie Freiberg, WS 211/12

21 Numerik 219 Beispiel = [ ] [ ] / / [ ] = (SVD auf 2 Dezimalstellen gerundet). AA = , A A = I Die Pseudoinverse TU Bergakademie Freiberg, WS 211/12

22 Numerik Orthogonale Matrizen und QR-Zerlegung Eine Matrix Q R m m heißt orthogonal, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist: 1. Q Q = I m, d.h. Q ist invertierbar und Q 1 = Q, 2. Qx 2 = x 2 2 x R m, d.h. Q ist normerhaltend, 3. die Spalten (bzw. Zeilen) von Q bilden eine Orthonormalbasis des R m. Für uns wichtig: Sind A R m n beliebig und Q 1 R m m, Q 2 R n n orthogonal, so gilt und folglich: Q 1 A 2 = AQ 2 2 = A 2 cond 2 (Q 1 A) = cond 2 (AQ 2 ) = cond 2 (A). (Durch orthogonale Transformationen wird die Kondition eines Gleichungssystems nicht verschlechtert!) 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

23 Numerik 221 Satz 5.8. Zu jeder Matrix A R m n mit m n gibt es eine orthogonale Matrix Q R m m und eine obere Dreiecksmatrix R R n n mit nichtnegativen Diagonaleinträgen, so dass [ ] R A = Q (QR-Zerlegung von A) O (O steht hier für eine Nullmatrix der Dimension (m n) n). Korollar 5.9. Besitzt die Matrix A aus Satz 5.8 vollen Rang n, dann hat R nur positive Diagonalelemente und ist daher invertierbar. R R ist die Cholesky-Zerlegung von A A. Insbesondere ist R dann durch A eindeutig bestimmt. Zerlegt man Q = [Q 1 Q 2 ], Q 1 R m n, so ist auch Q 1 = AR 1 durch A eindeutig festgelegt und es gilt Q 1 Q 1 = P R(A). Für Q 2 kann man jede Matrix wählen, deren Spalten eine ON-Basis von N (A ) bilden. 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

24 Numerik 222 Das Beispiel [ ] [ ] [ ] c s s A = 1 = s c c, s 2 + c 2 = 1, zeigt, dass die QR-Zerlegung im Fall rank(a) < n i.a. nicht eindeutig ist. Satz 5.1. Die Matrix A R m n, m n, besitze vollen Rang n und die QR-Zerlegung A = Q [ O R ]. Es sei b Rm und Q b = [ c 1 c 2 ] mit c 1 R n, c 2 R m n. Dann ist x = R 1 c 1 die (eindeutig bestimmte) Lösung des Kleinsten- Quadrate-Problems b Ax min x R n und für den Kleinsten-Quadrate- Fehler gilt b Ax 2 = c Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

25 Numerik 223 Satz Die Matrix A R m n besitze Rang r min{m, n}. Dann gibt es eine Permutationsmatrix P R n n und eine orthogonale Matrix Q R m m mit [ ] R1,1 R 1,2 AP = Q. O O Dabei ist R 1,1 R r r eine obere Dreiecksmatrix mit positiven Diagonalelementen und R 1,2 R r (n r). Für b R m sei [ c 1 c 2 ] = Q b mit c 1 R r. Dann ist die Lösungsmenge des Kleinsten-Quadrate-Problems b Ax 2 min x R n durch { [ R 1 1,1 P (c ] } 1 R 1,2 y 2 ) : y 2 R n r beliebig y 2 gegeben. Der zugehörige Kleinste-Quadrate-Fehler berträgt c Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

26 Numerik 224 In unserem Beispiel: = }{{} Q c = Q 2 1 = } {{ } [ O R ] D.h.: c 1 =.5 [2 3, 2] und c 2 =.5 6. Also ist x = [α, α 1 ] = R 1 c 1 = [.5,.5] und b Ax 2 = Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

27 Numerik 225 Bleibt die Frage, wie man eine QR-Zerlegung von A berechnet. Prinzipielle Vorgehensweise: Bestimme eine endliche Folge orthogonaler Matrizen Q 1, Q 2,... Q s : A Q 1 Q 2 Q s A 1 = Q 1 A, A 1 A2 = Q 2 A 1,..., A s 1 As = Q s A s 1, so dass A s = [ ] R O (mit einer oberen Dreiecksmatrix R) gilt. Dann ist [ ] R A = (Q s Q 2 Q 1 ) A s = Q 1 Q 2 Q s A s =: Q O die gesuchte QR-Zerlegung von A. (Ein Produkt orthogonaler Matrizen ist orthogonal.) 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

28 Numerik Householder-Transformationen Jede Matrix der Form P = I m 2uu R m m mit u R m, u 2 = 1, heißt Householder-Transformation. Wegen P = P sowie P 2 = I m ist P orthogonal. Genauer: P ist die Spiegelung an der Hyperebene u := {v R m : u v = } (dem sog. orthogonalen Komplement von u). u x u Px 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

29 Numerik 227 Gegeben: Ein Vektor x = [x 1,..., x m ] R m, x. Gesucht: Eine Householder-Transformation P R m m mit P x = γe 1 (γ R, e 1 = erster Einheitsvektor). Lösung: P = I m 2uu, wobei x 1 + sign(x 1 ) x 2 sign(x 1 ) x 2 u = ũ ũ 2 mit ũ = x 2. x m P x = Für A R m n berechnet man B = P A = A u(2a u) durch w = A u, w = 2w, B = A uw (ohne explizite Kenntnis von P ) in 4mn flops. P wird niemals explizit gespeichert, sondern nur der Vektor u Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

30 Numerik 228 Wie erzeugt man eine QR-Zerlegung mit Householder-Transformationen? x x x x x x x x x x x x A = x x x 1 x x x x x 2 x x x x 3 x x x x x x x } x {{ x } A 1 } {{ x } A 2 } {{ } A 3 Schritt 1. Wähle P 1 R 4 4 so, dass P 1 A(:, 1) = γ 1 e 1 R 4. Bestimme A 1 = P 1 A. Schritt 2. Wähle P 2 R 3 3 so, dass P 2 A 1 (2 : 4, 2) = γ 2 e 1 R 3. Bestimme A 2 = [ ] 1 P 2 A1. Schritt 3. Wähle P 3 R 2 2 so, dass P 3 A 2 (3 : 4, 3) = γ 3 e 1 R 2. Bestimme A 3 = [ I 2 ] O O P A Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

31 Numerik 229 Schematisch: for i = 1:n bestimme u_i so, dass fuer P_i = I - 2*u_i*u_i^T die Identitaet P_i *A(i:m,i) = gamma*e_1 gilt A(i:m,i:n) = P_i *A(i:m,i:n) end A wird hier durch seine QR-Zerlegung überschrieben. Q wird dabei in faktorisierter Form gespeichert: Q = P 1 P 2 P n. Die einzelnen Matrizen P i bzw. P i werden natürlich nicht explizit gespeichert. Es genügt, den Vektor u i (genauer ũ i ) zu speichern. Man speichert ũ i in Spalte i der Matrix A unterhalb der Hauptdiagonalen. Ein Zusatzvektor ist erforderlich für die ersten Komponenten der Vektoren ũ i. 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

32 Numerik 23 In unserem Beispiel: A(1, 1) + sign(a(1, 1)) A(:, 1) 2 ũ 1 = A(2, 1) = A(3, 1) P 1 = I 3 2 ũ ũ1 1 ũ ũ1 1 (wird nicht berechnet). Es folgt sign(a(1, 1)) A(:, 1) 2 3 A 1 (:, 1) = =, A 2 (:, 2) = A(:, 2) 2ũ T 1 A(:, 2) ũ 1 ũ1 ũ 1 = A(:, 2) ũ 1 = 3.5( 3 1).5( ) 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

33 Numerik 231 [ A1 (2, 2) + sign(a 1 (2, 2)) A 1 (2 : 3, 3) 2 ] [ ].5( 3 1) + 2 ũ 2 = A 1 (3, 2) =.5( 3 + 1) P 2 = I 2 2 ũ 2 ũ2 A 2 (2 : 3, 2) = ũ 2 ũ 2 (wird nicht berechnet). Es folgt [ sign(a1 (2 : 3, 2)) A 1 (2 : 3, 2) 2 ] = [ ] 2. Insgesamt [ ] R = O 3 3 2, Q = [ 1 P 2 ] P 1 (nicht explizit bekannt). 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

34 Numerik 232 Benötigt wird auch Q T b = P n P n 1 P 1 b. for i = 1:n tau = -2*u_i^T*b(i:m) b(i:m) = b(i:m) + tau*u_i end In unserem Beispiel: b = 2, ũ 1 = 1, u 1 = 1 ũ 1 = ũ Es folgt τ 1 = , b 1 = b τ 1 u 1 = = 1 3.5( 3 + 1).5(. 3 1) 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

35 Numerik 233 [ ] [ ].5( 3 + 1).5( 3 1) + 2 b 1 (2 : 3) =.5(, ũ 2 = 3 1).5(, 3 + 1) [ u 2 = 1 ] 1.5( 3 1) + 2 ũ 2 = ũ ( 3 1).5( ) Es folgt τ 2 = (, b 2 = b 1 (2 : 3) τ 2 u 2 = 3 1) [ ] und insgesamt c = Q T b = P 2 P 1 b = [ 3,.5 2,.5 6]. 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

36 Numerik Givens-Rotationen Eine Givens-Rotation G(θ) = [ cos θ ] sin θ sin θ cos θ (θ [, 2π)) dreht einen Vektor x R 2 um den Winkel θ (im Gegenuhrzeigersinn). Eine Givens-Rotation in der (i, j)-ebene des R n hat (für i < j) die Form I i 1 O O cos θ sin θ G(i, j, θ) = O I j i 1 O R n n. sin θ cos θ O O I n j 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

37 Numerik 235 Beachte, dass beim Übergang x y = G(i, j, θ)x nur die Komponenten i und j verändert werden. Es gilt: y k = x k k {i, j}, [ ] [ ] [ ] [ ] yi xi cos θ sin θ xi = G(θ) =. sin θ cos θ y j x j Die Matrix G(i, j, θ) ist orthogonal (G(i, j, θ) 1 = G(i, j, θ) = G(i, j, θ) ). Gegeben: i, j, x i, x j ([x i, x j ] [, ]). Gesucht: θ mit [ ] cos θ sin θ sin θ cos θ [ x i x j ] = [ ]. Lösung: x j x i x cos θ =, sin θ = j x 2 i + x2 j x 2 i + x2 j [ ] [ ] cos θ sin θ xi x = 2 i + x2 j. sin θ cos θ x j mit 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

38 Numerik 236 Die Konstruktion einer QR-Zerlegung von A durch Givens-Rotationen ist jetzt offensichtlich. Die Reihenfolge, in der Elemente von A wegrotiert werden: Aufwand: I.a. doppelt so hoch wie bei Householder-Transformationen (eine QR-Zerlegung durch Householder-Transformationen erfordert 2n 2 m n 3 /3 Gleitpunktoperationen). Besitzt A aber bereits viele Nulleinträge unterhalb der Hauptdiagonalen, dann ist eine QR-Zerlegung mit Hilfe von Givens-Rotationen kostengünstiger. 5.4 Orthogonale Matrizen und QR-Zerlegung TU Bergakademie Freiberg, WS 211/12

39 Numerik Die Kondition des linearen Ausgleichsproblems Satz Die Matrix A R m n, m n, besitze vollen Rang n. x und x seien die Lˆsungen der beiden Ausgleichsprobleme b Ax 2 min x R n bzw. b Ãx 2 min x R n. Es sei { A ε := max à 2, b b } 2 1 < A 2 b 2 cond 2 (A) (diese Voraussetzung garantiert die Eindeutigkeit von x ). Dann gilt x x 2 x 2 ε κ LS + O ( ε 2) mit κ LS := 2cond 2(A) cos(θ) + tan(θ)cond 2 (A) 2. Der Winkel θ [, π/2] ist definiert durch sin(θ) = b Ax 2 / b Die Kondition des linearen Ausgleichsproblems TU Bergakademie Freiberg, WS 211/12

40 Numerik 238 Interpretation: Ist θ = (oder sehr klein), d.h. der Kleinste-Quadrate- Fehler b Ax 2 ist sehr klein (im Verhältnis zu b 2 ), dann ist wegen cos(θ) 1 und tan(θ) κ LS 2cond 2 (A). Ist θ weder sehr klein noch nahe bei π/2 (z.b. θ = π/4), dann ist die Konditionszahl κ LS sehr viel größer: Sie verhält sich ungefähr wie cond 2 (A) 2 (κ LS = 2cond 2 (A) + cond 2 (A) 2 für θ = π/4). Ist schließlich θ π/2, d.h. x, so ist κ LS praktisch unbeschränkt (tan(θ) für θ π/2). Im Grenzfall θ = π/2 ist x = und (fast) jede beliebig kleine Störung von A bzw. b führt auf x und damit zu einem unendlichen relativen Fehler. 5.5 Die Kondition des linearen Ausgleichsproblems TU Bergakademie Freiberg, WS 211/12

41 Numerik Anwendungen der Ausgleichsrechnung Hauptanwendung ist das Anpassen (Eichen, Kalibrieren) eines Modells y = Φ(x, α) an einen Datensatz {(x j, y j )} m j=1 (engl. data fitting): y j Φ(x j, α), j = 1,..., m. Hierbei sind x : unabhängige Variable (z.b. Ort, Zeit etc.), y : abhängige Variable, α = (α 1,..., α n ) : ein oder mehrere zu bestimmende Parameter. Typischerweise ist y beobachtbar, die α i jedoch nicht, bzw. nur indirekt über y. 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

42 Numerik 24 Hängt das Modell Φ linear von den Parametern α ab, d.h. ist Φ(x, α) = α 1 φ 1 (x) + + α n φ n (x) mit gegebenen Regressionsfunktionen {φ j } n j=1, so spricht man von einer linearen Ausgleichsaufgabe. Die Forderung m j=1 y j Φ(x j, α) 2 min α R n führt auf das lineare Ausgleichsproblem (LS) mit A = φ 1 (x 1 ) φ n (x 1 ).. φ 1 (x m ) φ n (x m ), b = y 1. y m, x = α 1. α n. 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

43 Numerik Beispiel: Ausgleichspolynome Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A (Angaben in Millionen Einwohner). Wir wollen hieraus eine Vorhersage für die Anzahl der Einwohner im Jahr 2 bestimmen und werten hierzu das Interpolationspolynom p 9 vom Grad 9 durch die 1 Datenpaare an der Stelle 2 aus. Wir erhalten p 9 (2) = (?!). 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

44 Numerik Interpolationspolynom Grad 9 Zensusdaten Prognose durch Extrapolation U. S. Bevoelkerung [Millionen] Extrapolationen, die auf Polynomen hohen Grades beruhen, sind riskant! 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

45 Numerik 243 Bei Ausgleichspolynomen ist das Modell Φ(x, α) ein Polynom in x mit Koeffizienten α i. Nimmt man die Monome {x j } n j= als Regressionsfunktionen, so ist Φ(x, α) = p n (x) := α + α 1 x + + α n x n. Das Ausgleichspolynom p n vom Grad n ist somit durch die Forderung m m y j p n (x j ) 2 = min y j q(x j ) 2 : q P n j=1 j=1 bestimmt. Dabei bezeichnen {(x j, y j )} m j=1 die gegebenen Datenpaare. Für unser Beispiel ergibt sich für p 1 und p 2 sowie die zugehörigen Prognosen p 1 (2) = bzw. p 2 (2) = Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

46 Numerik Zensusdaten Ausgleichsgerade Ausgleichsparabel Zensus 2 Wert 3 U. S. Bevoelkerung [Millionen] Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

47 Numerik 245 Problem. Lege durch (m + 1) Punkte {(x i, y i )} m i=1 ein Polynom p n (x) = α + α 1 x + + α n x n P n, wobei n m (m + 1 Bedingungen für n + 1 Koeffizienten). Ansatz: α + α 1 x + α 2 x 2 + α n x n = y α + α 1 x 1 + α 2 x α n x n 1 = y 1... α + α 1 x m + α 2 x 2 m + α n x n m = y m oder kürzer Aα = y 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

48 Numerik 246 mit der (rechteckigen) Vandermonde-Matrix 1 x x 2 x n 1 x 1 x 2 1 x n 1 A =.. R (m+1) (n+1). 1 x m x 2 m x n m A besitzt Rang n + 1, wenn x, x 1,..., x n verschieden sind. Dann ist das Ausgleichspolynom eindeutig bestimmt. Seine Koeffizienten sind die Lösung des linearen Ausgleichsproblems Aα y 2 min α. Beachte: Ist m = n, so ist A quadratisch und invertierbar. Das Polynom p n interpoliert in diesem Fall sämtliche Punkte (x i, y i ). 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

49 Numerik 247 Einfache Spezialfälle: n = : (konstantes Polynom) p (x) α mit α = 1 m + 1 m y i. i= n = 1: (Ausgleichsgerade) p 1 (x) = α + α 1 x mit und α α 1 = 1 D m i= x 2 i m i= x i m x i m + 1 i= D = (m + 1) [ m m ] 2 x 2 i x i. i= i= m i= y i m x i y i i= 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

50 Numerik Statistischer Zugang Eine gebräuchliche statistische Formulierung der linearen Ausgleichsrechnung schreibt anstelle von b Ax zunächst b = Ax + ξ mit einem Zufallsvektor ξ = ξ(ω) R m ( lineares Modell ), womit auch der Beobachtungsvektor zu einer Zufallsvariablen b = b(ω) wird. Ein gemessener Zahlenvektor b wird somit als Realisierung (eine von vielen möglichen) dieses Zufallsvektors angesehen. Die gegebenen Regressionsfunktionen (und damit A) sowie die zu schätzenden Parameter x bleiben deterministische (nicht zufallsbehaftete) Größen. 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

51 Numerik 249 Durch geeignete Wahl der Wahrscheinlichkeitsverteilung von ξ lassen sich so statistische Annahmen über z.b. Messfehler bei der Beobachtung von b in das Modell einbringen. Üblich: E [ξ] = (Erwartungswert Null), und somit E [b] = E [Ax ] + E [ξ] = Ax, d.h. die Messfehler mitteln sich von Versuchsreihe zu Versuchsreihe aus. Die Kovarianzmatrix C = C ξ von ξ = [ξ 1,..., ξ m ] ist definiert durch C = E [ (ξ E [ξ])(ξ E [ξ]) ] [ = E ξξ ] [ ] m = E [ξ i ξ j ] R m m. i,j=1 5.6 Anwendungen der Ausgleichsrechnung TU Bergakademie Freiberg, WS 211/12

4 Lineare Ausgleichsrechnung

4 Lineare Ausgleichsrechnung Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana.

Lineare Algebra. 13. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Kapitel 2: Lineare Gleichungssysteme

Kapitel 2: Lineare Gleichungssysteme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Singulärwertzerlegung

Singulärwertzerlegung LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige

Mehr

Linear Systems and Least Squares

Linear Systems and Least Squares Linear Systems and Least Squares Vortragender: Gelin Jiofack Nguedong Betreuer: Prof. Dr. Joachim Weickert Proseminar: Matrixmethoden in Datenanalyse und Mustererkennung Wintersemester 2015/2016 18. November

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012 Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 7 Institut für Numerische Simulation Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 7. Juli 7 Sie haben 9 Minuten Zeit zum Bearbeiten

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

6.1 Motivation: Gauss sche Methode der kleinsten Quadrate

6.1 Motivation: Gauss sche Methode der kleinsten Quadrate 6 Ausgleichsrechnung Bisher untersuchten wir Verfahren für Lösung linearer Gleichungssteme Ax b mit quadratischer Matrix A In vielen Anwendungen tritt das Problem auf, lineare Gleichungssysteme zu lösen,

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D; Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Lineare Ausgleichsproblems

Lineare Ausgleichsproblems Lineare Ausgleichsproblems Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Department of Mathematics Lineare Ausgleichsproblems p. /7 Lineare Ausgleichsprobleme In (fast) allen Wissenschaftsbereichen

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT

ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT G.FELDER, LINEARE ALGEBRA II, FS 2013 27.03.2013 Inhaltsverzeichnis 1. Selbstadjungierte Abbildungen 1 1.1. Adjungierte Abbildungen 1 1.2. Spektralsatz

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

A 1 A 2 A 3 A 4 A 5 A 6 A 7

A 1 A 2 A 3 A 4 A 5 A 6 A 7 Institut für Geometrie und Praktische Mathematik Numerisches Rechnen für Informatiker WS 7/8 Prof. Dr. H. Esser J. Grande, Dr. M. Larin Klausur Numerisches Rechnen für Informatiker Hilfsmittel: keine (außer

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Höhere Ableitungen Interpolationsbedingungen d k Φ dx k (x j) = y (k) j, ( j =,,..., n; k =,,..., c j ) bestimmen das Hermite Interpolationspolynom Φ Π r mit r + = n ( + c j ). j= 2 Lineare Gleichungssysteme

Mehr

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit. KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

6 Die Schursche Normalform und einige Klassen von Matrizen

6 Die Schursche Normalform und einige Klassen von Matrizen ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-

Mehr

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09) Vorlesung Mathematik für Ingenieure Wintersemester 8/9 Kapitel 4: Matrizen, lineare Abbildungen und Gleichungssysteme Volker Kaibel Otto-von-Guericke Universität Magdeburg Version vom 5. November 8 Page-Rank

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME In diesem Abschnitt wiederholen wir zunächst grundlegende Definitionen und Eigenschaften im Bereich der Matrizenrechnung, die wahrscheinlich bereits in Ansätzen

Mehr

9. Übungsblatt zur Mathematik I für Maschinenbau

9. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation; Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Lineare Abbildungen. Heinrich Voss. Hamburg University of Technology Department of Mathematics. Lineare Abbildungen p.

Lineare Abbildungen. Heinrich Voss. Hamburg University of Technology Department of Mathematics. Lineare Abbildungen p. Lineare Abbildungen Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Department of Mathematics Lineare Abbildungen p. /95 Basiswechsel Es seien V, W endlichdimensionale Vektorräume und

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

Reduced-Rank Least Squares Modelle

Reduced-Rank Least Squares Modelle 16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr