(Gewicht eines Neugeborenen) Zeit t (in Wochen) Gewicht (in Gramm)

Größe: px
Ab Seite anzeigen:

Download "(Gewicht eines Neugeborenen) Zeit t (in Wochen) Gewicht (in Gramm)"

Transkript

1 Kapitel 4 Ausgleichsrechnung Wir betrachten die Methode der kleinsten Quadrate, die bereits um 8 von Gauß und unabhängig davon von Adrien Marie Legendre (75-833) entwickelt wurde Problem: Gegeben seien Messdaten (t i,y i ),i=,, m, diesemüssten aus physikalischen oder ökonomischen Gründen alle auf einer Geraden liegen, welche durch y = α + β t (t R) gegeben sei Gesucht ist eine vernünftige Näherung für α und β Beispiel: (Gewicht eines Neugeborenen) Wir betrachten die Messdaten (t n,g n ) der folgenden Tabelle: Zeit t (in Wochen) Gewicht (in Gramm) Gesucht ist nun eine lineare Zunahme des Gewichtes Durch Aufstellen einer Geradengleichung zu den jeweiligen Messzeitpunkten erhält man das folgende überbestimmte LGS: t = t =: α + β = 35 = g t = t =: α + β = 37 = g t = t 3 =: α + β = 3 = g 3 t = t 4 =3: α + β 3 = 34 = g 4 t = t 5 =4: α + β 4 = 365 = g 5 t = t 6 =6: α + β 6 = 368 = g 6 t = t 7 =8: α + β 8 = 39 = g 7 Es ergeben sich somit 7 Gleichungen für Unbekannte, ein solches LGS ist im allgemeinen nicht lösbar Gesucht ist nun eine Ersatzlösung,diedasSystem möglichst gut erfüllt: Wir betrachten die Residuen r = 35 α β r = 37 α β r 3 = 3 α β r 4 = 34 α β 3 r 5 = 365 α β 4 r 6 = 368 α β 6 r 7 = 39 α β 8

2 Kapitel 4: AUSGLEICHSRECHNUNG Ausgleichsgerade (siehe Beispiel) Die Kleinste-Quadrate-Methode verfolgt folgende Idee: Man wähle α und β so, dass Q(α, β) = 7 n= r n minimal wird Notwendiges Kriterium dafür ist, dass Q α = Q β = gilt, also ( 7 ) Q α = (g n α β t n ) α n= = 7 (g n α β t n ) ( ) = n= und ( 7 ) Q β = 7 (g n α β t n ) = (g n α β t n ) ( t n )= β n= n= Man erhält so die Gauß schen Normalengleichungen α α 7 +β n= 7 t n + β n= 7 t n = 7 g n, n= n= 7 t n = 7 t n g n n= n= In diesem Beispiel ergibt sich explizit das LGS [ [ 7 4 α 4 3 β das die Lösungen = [ , α = , 86 β = , 55 liefert Der Wert für β entspricht dabei der durchschnittlichen wöchentlichen Gewichtszunahme des Babys (in Gramm)

3 6 Kapitel 4: AUSGLEICHSRECHNUNG Beachte: Sogenannte Ausreißer (das heißt Messwerte, die im Vergleich mit den übrigen Messwerten deutlich von dem in etwa zu erwartenden Wert abweichen) haben großen Einfluss und verfälschen das Ergebnis Deshalb werden diese bei der Berechnung der Ausgleichsgeraden oft einfach weggelassen Berücksichtigt man dieses bei der erneuten Betrachtung des vorherigen Beispiels und vernachlässigt dort das Geburtsgewicht, also den ersten Messwert, so ergibt sich das LGS [ [ α β = [ das die Lösungen α = 38, 63 β = 6, 8 liefert (und der Realität wesentlich näher kommt als die oben berechneten Werte!) Allgemeine Form: Bei gegebenen Messdaten (t i,y i ),i =,, m sind Werte für α und β gesucht, die eine möglichst gute Ausgleichsgerade y = α + β t (t R), charakterisieren Dazu ist das LGS m m i= m m t i i= t i t i i= [ α β m y i = i= m y i t i i= zu lösen Definiert man t A = t m R m, y = y y m R m, so erhält man die Koeffizientenmatrix in der Form m A T A = m t i i= m t i i= m t i i= und die rechte Seite Also ist das LGS m y i A T y = i= m y i t i [ A T α A β i= = A T y zu lösen; diese Gleichungen werden Gauß sche Normalengleichungen genannt

4 Kapitel 4: AUSGLEICHSRECHNUNG 63 Verallgemeinerung: Statt eines linearen Ansatzes y = α + β t kann man zum Beispiel einen polynomialen Ansatz der Form p n (t) = α ν t ν ν= betrachten und die Koeffizienten α ν so bestimmen, dass p n möglichst gut durch die Punkte (t i,y i ),i=,, m, verläuft Sei dazu m>n+, das heißt, man betrachtet ein überbestimmtes LGS der Form α ν t ν i = y i (i =,, m) ν= Wir betrachten dann den Residuenvektor r =(r,r,, r m ) T mit r i = y i α ν t ν i ν= Ziel ist jetzt, die α ν,ν =,, n, so zu bestimmen, dass m m Q(α,, α n )= ri = y i i= i= (i =,, m) α j t j i j= minimal wird Notwendig dafür ist Q α ν = (ν =,, n), und man erhält analog zum linearen Fall das LGS m m m t i t n i i= i= m m m α t i t i t n+ i i= i= i= = m m t n α n i i= Mit t t t n A = t t t n Rm (n+), y = t m t m tn m i= t n i y y m m y i i= m t i y i i= m t n i y i i=, α = α α n ist das LGS äquivalent mit A T A α = A T y, das heißt, auch hier ergeben sich die Gauß schen Normalengleichungen Dabei war A α = y das ursprüngliche (überbestimmte) LGS und r = A α y der Residuenvektor Es ergibt sich das lineare Ausgleichsproblem m ri min r = A α y min ( ) i=

5 64 Kapitel 4: AUSGLEICHSRECHNUNG Satz 4: Das lineare Ausgleichsproblem ( ) besitzt stets eine Lösung Falls A maximalen Rang besitzt, das heißt, falls rg(a) = n +,istdielösung eindeutig bestimmt und es gilt α =(A T A) A T y Beweis: ) Wir beweisen zunächst die Existenz einer Lösung Sei dazu U der Untervektorraum des R m, der von den Spaltenvektoren von A aufgespannt wird, es sei also U =span { t t n,,, } Dann ist t t n r = A α y = α + α + + α n } t m {{ t n m } := a U und das Minimierungsproblem ( ) istäquivalent damit, ein a U zu finden, so dass a y =min a a U y gilt Aus der Linearen Algebra ist bekannt, dass das Lot n von y R m auf U R m existiert und eindeutig bestimmt ist und den Abstand a y für a U minimiert Sei a ist die orthogonale Projektion von y auf U, sodass n = y a U gilt (es ist also ein LGS zur Berechnung von a zu lösen!) ) Zur Eindeutigkeit der Lösung: Besitzt A maximalen Rang, so sind die Vektoren a = t m,, a n = linear unabhängig Für das Lot n = y a gilt (y a ) T a = a U, dasheißt,esgilty a U Mit der Darstellung a = α i a i für a folgt i= t n t n m t n m y y m ( n T α i a i y) a j = (j =,, n) i= (A α y) T a j = (j =,, n) (A α y) T [ a } a a n =(,, ) {{}}{{} A T α T A T A y T A = T A T A α A T y = A T A α = A T y

6 Kapitel 4: AUSGLEICHSRECHNUNG 65 Dabei ist A T A invertierbar, denn: Sei A T A x =, und u := A x = x a + + x n a n x =(x,, x n ) T Andererseits gilt A T (A x) = A T u = a T i u = (i =,, n) u U Damit muss u = gelten, denn u U und u U lässt nur diese eine Möglichkeit zu Da die Vektoren a,, a n linear unabhängig waren, muss damit die Linearkombination trivial sein, das heißt es muss u = x a + + x n a n x = x = = x n = gelten Damit ist aber x = und (A T A) invertierbar Die Lösung α berechnet sich dann durch α =(A T A) A T y und ist eindeutig Beachte: Besitzt A nicht maximalen Rang, so ist zwar das Lot auf U eindeutig bestimmt, aber die Koeffizienten α i nicht, denn die Spalten von A bilden keine Basis von U sondern nur ein Erzeugendensystem, das heißt, es sind unter Umständen verschiedene Darstellungen des Lotes möglich Bemerkung: Besitzt A maximalen Rang, so ist A T A positiv definit und symmetrisch, also ist das cg- Verfahren anwendbar, auch das Cholesky-Verfahren ist unter Umständen sinnvoll Achtung: Die Matrix A T A ist oft sehr schlecht konditioniert! Deshalb gibt es spezielle orthogonale Verfahren zur Lösung des LGS, siehe Kapitel 53

7 Kapitel 5 Matrizeneigenwertprobleme Problem: Bestimmung aller Eigenwerte und zugehörigen Eigenvektoren einer gegebenen Matrix A Theorie: Die Eigenwerte sind die Nullstellen des charakteristischen Polynoms a λ a a n p(λ) =det(a λ I) =det a a λ, a n a nn λ das heißt, die Bestimmung der Eigenwerte macht zwei Berechnungsschritte nötig: Berechnung der Polynomkoeffizienten des charakteristischen Polynoms (Berechnung der obigen Determinante) Berechnung der Nullstellen des entstandenen Polynoms Die durchzuführenden Berechnungen sind jedoch numerisch äußerst instabil! Wir wollen iterative Methoden zur Berechnung der Eigenwerte und Eigenvektoren herleiten, die die Probleme der Determinantenberechnung und der Nullstellenberechnung umgehen 5 Vektoriteration Die hier zunächst behandelte direkte Vektoriteration geht auf von Mises zurück Idee: Betrachte die Folge {x k } mit x k+ = A x k, x, k =,,, Ist λ ein einfacher Eigenwert von A, der betragsmäßig größer als alle anderen Eigenwerte von A ist, so setzt sich der zugehörige Eigenvektor durch, das heißt, die Folge {x k } konvergiert gegen diesen Eigenvektor

8 Kapitel 5: MATRIZENEIGENWERTPROBLEME 67 Beispiel: Betrachte die Matrix [ A = 4 5 diese besitzt das charakteristische Polynom [ 4 λ p(λ) =det = λ 5 λ 4λ 5 und damit die Eigenwerte λ =5, λ = Für den betragsmäßig größten Eigenwert λ ergibt sich der Eigenvektor [ x = c, c R, Wählt man speziell c = oder c =, so folgt x beispielsweise [ x =, = (Normierung) Setzt man so liefert obige Iterationsvorschrift folgende Tabelle (die Vektoren mit Schlange bezeichnen die bereits normierten Iterationsergebnisse): x x x x x x 3 [ [ 3 5 [, 6 [ 3, 4 3 [, 884 [, [ x 4 x 5 x 6, 995 [, 9994 [, 9998 Satz 5: Es sei A diagonalisierbar, das heißt, A besitze n linear unabhängige Eigenvektoren, und es gelte für die Eigenwerte λ,, λ n λ > λ λ 3 λ n, sei also λ der betragsmäßig größte Eigenwert von A Sei weiter x R n \{} und x sei nicht in dem Untervektorraum enthalten, der von den Eigenvektoren zu den Eigenwerten λ,, λ n aufgespannt wird Dann konvergiert die Folge mit der Iterationsvorschrift x k = x k x k x k+ = A x k gegen einen normierten Eigenvektor von A zum Eigenwert λ

9 68 Kapitel 5: MATRIZENEIGENWERTPROBLEME Beweis: Sei { } y,, y n eine Basis von Eigenvektoren von A mit A y i = λ i y i (i =,, n) ( ) Für x gibt es dann nach Voraussetzung eine Darstellung mit c Damit folgt x = c y + c y + + c n y n und wir erhalten A k x = c A k y + c A k y + + c n A k y n ( ) = c λ k y + c λ k y + + c n λ k n y n A k x c λ k = y + c c ( λ λ ) k y + + c n c ( λn λ ) k y n Für den Grenzübergang k ergibt sich A k x lim k c λ k = y (denn λ i < für i ) λ Wegen folgt A k x c λ k = [ ± y ± c ( ) k c λ y λ ± ± c ( ) k n c λn y λ n }{{} lim k A k x A k x } {{ } A k x k = lim ± Ak x k c λ k y c λ k A k x = ± y y Bemerkung: Problematisch ist unter Umständen die Wahl des Startvektors, da man vorher nicht weiß, ob der gewählte Vektor im Untervektorraum liegt, der von den Eigenvektoren zu den restlichen Eigenwerten aufgespannt wird Nur dann liefert das Verfahren aber tatsächlich den gesuchten Eigenvektor An dieser Stelle kommen uns jedoch die durch die Fließkomma-Arithmetik entstehenden numerischen Fehler zu Hilfe, so dass das Verfahren praktisch unabhängig vom Startvektor x () funktioniert Satz 5: Die Matrix A sei symmetrisch, besitze also ein vollständiges Orthonormalsystem von Eigenvektoren, und es bezeichne (λ i, y i ) ein Eigenwert-Eigenvektor-Paar Ist x eine Eigenvektor- Näherung der Form x = y i + ε r mit y i =, r = und außerdem r y i, so liefert ρ := xt A x x T x = λ i + ε c

10 Kapitel 5: MATRIZENEIGENWERTPROBLEME 69 eine Näherung von λ i (c ist eine Konstante) Der Ausdruck x T A x x T x heißt Rayleigh-Quotient Beweis: Der Vektor r y i besitze die Basisdarstellung r = c j y j j= j i Dann ergibt sich ρ = (y i + ε r)t A (y i + ε r) (y i + ε r) T (y i + ε r) = yt i = λ i y T i A y i + ε r T A y i + ε y T A r + i ε r T A r y T y i i + ε y T r + ε r T y i }{{} i +ε r T r }{{} = = = {}}{{}}{ y i + ε λ i r T y i + ε λ i y T r +ε r T A r i y i +ε r }{{}}{{} = = = {}}{ = λ i y i +ε r T A r +ε = λ i ( + ε )+ε (r T A r λ i ) +ε = λ i + ε rt A r λ i +ε }{{ } := c = Damit folgt die Behauptung Probleme: Man erhält nur einen Eigenvektor, die übrigen bleiben weiter unbekannt Die Konvergenzgeschwindigkeit ist unter Umständen sehr schlecht, sie ist abhängig vom Quotienten λ λ (vgl oben) MAPLE-Prozedur: Die Vektoriteration lässt sich mit Hilfe der folgenden MAPLE-Prozedur implementieren: > restart; > with(linearalgebra); printlevel:=; > vectoriteration:=proc(a, x, eps) local x, x, x, nor,ew;

11 7 Kapitel 5: MATRIZENEIGENWERTPROBLEME x:=vectorscalarmultiply(x,/norm(x, infitity)); # Normierung von x x:= MatrixVectorMultiply(A, x); x:=vectorscalarmultiply(x,/norm(x, infitity)); # Normierung von x while (Norm(VectorAdd(x,x,,), infinity) >eps) and (Norm(VectorAdd(x,x,,-), infinity) >eps) do x:= MatrixVectorMultiply(A, x); x:=vectorscalarmultiply(x,/norm(x, infitity)); x:= x; x:= x; end do; print(x); # Eigenwertberechnung nor:=dotproduct(x, x); # quadrierte Euklidische Norm von x x:=matrixvectormultiply(a, x); ew:=dotproduct(x, x)/nor; print( Eigenwert, ew); end proc; Die Prozedur kann folgendermaßen aufgerufen werden: A:= Matrix([[4,, [ 5, ); x:= Vector([, ); eps:=; vectoriteration(a, x, eps); 5 Inverse Vektoriteration Die inverse Vektoriteration geht auf Wieland (945) zurück Idee: Sei λ eine Schätzung für den einfachen Eigenwert λ i der Matrix A und es gelte λ λ i < λ λ j j i (An dieser Stelle geht ein, dass λ i einfacher Eigenwert sein muss, ansonsten funktioniert die Idee nicht!) Dann ist (λ i λ) der betragsmäßig größte Eigenwert von (A λ I), denn es gilt det [ (A λ I) µ I =det [ (A (λ + µ) I, }{{} λ das heißt, ist λ i Eigenwert von A, soistµ i = λ i λ Eigenwert von (A λ I) und daher = µ i λ i λ Eigenwert von (A λ I) Dabei ergibt sich die letzte Äquivalenz aus (A λi) x = µ i x x = µ i (A λi) x µ i x =(A λi) x Man wende jetzt die direkte Vektoriteration auf die Matrix (A λ I) an, das heißt, man wählt einen Startvektor x und berechnet x k+ =(A λ I) x k beziehungsweise (A λ I) x k+ = x k, In jedem Iterationsschritt muss also ein LGS gelöst werden, dies jedoch immer nur für verschiedene rechte Seiten und mit identischer Koeffizientenmatrix, so dass nach Berechnung

12 Kapitel 5: MATRIZENEIGENWERTPROBLEME 7 einer L U-Zerlegung der Matrix A λ I dann pro Iterationsschritt jeweils nur eine Vorwärtsund eine Rückwärtselimination notwendig ist Beispiel: Betrachte die Matrix A = [ 3 4 Diese besitzt die Eigenwerte λ =,λ = Wir betrachten jetzt λ = alsschätzung von λ Dann ergibt sich [ [ [ 3 3 A λ I = = 4 9 und det (A λ I) = 9 DamitlautetdieInversezu(A λ I): (A λ I) = [ Mit dem Startvektor y = [ erhält man im ersten Iterationsschritt y = 9 [ 9 3 [ = [ Normierung liefert [ ỹ = 9 [ 8 9 = Durch Normierung wird also der Faktor [ [ 9 8 = 9 [ 8 9 [ 8 9 det (A λ I) herausgekürzt Dadurch wird die Berechnung stabil Wir erhalten so ỹ ỹ ỹ 3 ỹ 4 ỹ Nun ist ỹ k eine Näherung für den Eigenvektor zum Eigenwert (λ i λ) der Matrix (A λ I) und gleichzeitig Näherung für den Eigenvektor zum Eigenwert λ i der Matrix A,

13 7 Kapitel 5: MATRIZENEIGENWERTPROBLEME denn es gilt A y = λ i y (A λ I) y =(λ i λ) y }{{} µ i λ i λ y =(A λ I) y Den zugehörigen Eigenwert kann man jetzt mit Hilfe der Matrix A berechnen, es ist im Beispiel (ỹ 5 ) T A ỹ 5 (ỹ 5 ) T = ỹ 5 eine Näherung für λ Bemerkung: Verfeinerte Methoden zur Eigenwertberechnung sind QR-Algorithmus Singulärwertzerlegung (siehe zb Hämmerlin/Hoffmann: Numerische Mathematik, Kapitel und 3) 53 QR-Verfahren Zur Berechnung der Eigenwerte einer Matrix A R n n lässt sich auch das QR-Verfahren verwenden, das auf einer Faktorisierung der Matrix A in ein Produkt aus einer orthogonalen Matrix Q und einer oberen Dreiecksmatrix R beruht, dh A = Q R Eine Matrix Q heißt dabei orthogonal, falls Q = Q T gilt Die n Spalten (Zeilen) einer orthogonalen Matrix Q bilden ein ONS im R n,dhfür die Spalten von Q =(q,,q n ) gilt q T q = σ i j ij, i,j =,,n Eine QR-Faktorisierung von Matrizen ist aus folgendem Grund interessant Satz 53: Die Kondition einer Matrix A R n n bzgl der Spektralnorm und der Frobenius-Norm ändert sich nicht bei Multiplikation mit einer orthogonalen Matrix Beweis: Ist Q R n n orthogonal, so folgt für jedes x R n Q x =(Q x) T Q x = x T Q T Q x = x T x = x Also folgt auch Q A x = A x und damit Q A =max x QAx x =max x Ax x = A Da mit Q auch Q = Q T orthogonal ist, folgt analog (QA) = A Q = A und damit die Behauptung für die Spektralnorm Analog lässt sich die Behauptung für die Frobenius-Norm zeigen

14 Kapitel 5: MATRIZENEIGENWERTPROBLEME 73 Zur Berechnung der QR-Zerlegung wenden wir das Householder-Verfahren an Definition 54: Eine Matrix H R n n der Form H = I u u T mit der Einheitsmatix I R n n und einem Vektor u R n mit u =heißthouseholder Matrix Wegen H T =(I u u T ) T = I u u T = H und H T H = H H =(I u u T )(I u u T ) = I u u T u u T +4uu T u u }{{} T = I = ist die Householder-Matrix symmetrisch und orthogonal Wir betrachten nun zunächst folgendes Problem Für einen gegebenen Vektor a R n \{} ist eine Householder-Matrix H so zu bestimmen, so dass c H a = c e = gilt Wegen Ha = a T H T H a = a T a = a = c e folgt c = ± a }{{} = Wir wählen nun v := a + sign(a ) }{{} 8 < a := : a < a e und u := v v Dann folgt mit c = = v H = I v vt v = I c v v T = a +sign(a ) a e = a + a +a sign(a n ) a =( a + a a ) a + sign(a ) a a a n Tatsächlich erhalten wir in diesem Fall Wir können nun zeigen: Satz 55: Ha = (I c v v T )a = a c v (a +sign(a ) a e ) T a }{{} ( a +sign(a) a a)= c = a v =sign(a ) a e Jede Matrix A R n n lässt sich als Produkt A = Q R mit einer Orthogonalmatrix Q und

15 74 Kapitel 5: MATRIZENEIGENWERTPROBLEME einer oberen Dreiecksmatrix R schreiben Beweis: Wir führen den Beweis mittels vollständiger Induktion über n SeiA =(a,,a n ) Für n =folgta = a Für n>wählen wir eine Householder-Matrix H R n n mit H a = ± a e Dann folgt ± a H A = à mit à R(n ) (n ) Die Induktionsvoraussetzung liefert eine QR-Zerlegung der Form à = Q R, dh Q T à = R Setzen wir nun H = QT so folgt, dass H H A = R eine obere Dreiecksmatix ist Im QR-Algorithmus werden also sukzessive Householder-Matrizen immer kleinerer Dimensionen berechnet Beispiel: ) Zu a = ist eine Householder-Matrix H gesucht mit H a = ± a = ±3 Wähle v = + 3 = 5 und c = v = 3 = 5 Wir erhalten H = 5 5 (5,, ) = ) Berechne die QR-Zerlegung von 9 7 A =

16 Kapitel 5: MATRIZENEIGENWERTPROBLEME 75 Schritt: Wir wählen v = = 8 4 und c = 8 = 4, und erhalten die erste Householder-Matrix H = = Multiplikation mit A ergibt H A = Schritt: Wir wählen ( ) ( ) 5 v = 5 = ( ) 4 und c = =, und erhalten mit die zweite Householder-Matrix H = v v T = ( ) = Damit folgt H H A = Also gilt A = H T HT R = Q R mit Q = H T H T = = R 6, Algorithmus: Die Matrix Q wird durch die einzelnen Vektoren v,,v n der Householder-Matrizen festgelegt, wobei v j =(v jj,,v nj ) nur noch n j +Einträge hat Bei der Speicherung der QR-Zerlegung wird daher statt H j = I c j v j v T j nur der Vektor v j und der Wert c j abgespeichert Man kann v j (bis auf v jj ) im unteren Teil der A-Matrix speichern, rechts oben speichern wir R Dannmüssen noch die Werte v jj und die Werte c j in getrennten Vektoren v und c abgespeichert werden MAPLE-Prozedur: Die QR-Zerlegung einer Matrix A lässt sich mit Hilfe der folgenden MAPLE-Prozedur implementieren:

17 76 Kapitel 5: MATRIZENEIGENWERTPROBLEME > restart; > with(linearalgebra): printlevel:=; > qr zerlegung:=proc(a) local n, j, nor, k, i, summe; global v, c; # option trace; n:=rowdimension(a); v:=vector(n); c:=vector(n); for j from to n do nor:=; for k from j to n do nor := nor + A[k, j A[k, j; end do; nor:=sqrt(nor); if nor =thenv[j :=; else c[j :=/(nor nor + nor abs(a[j, j)); if A[j, j < thennor := nor end if; v[j :=A[j, j+nor; A[j, j := nor; for k from j +ton do summe := v[j A[j, k; for i from j +ton do summe := summe + A[i, j A[i, k; end do; summe := summe c[j; A[j, k :=A[j, k v[j summe; for i from j +ton do A[i, k :=A[i, k A[i, j summe; end do; end do; end if; end do; print(a, v, c); end proc: Anwendung: > A:=Matrix([[3,-9,7, [-4,-3,-,[,-,-35); > qr zerlegung(a); Wir erhalten das Resultat A = 4 5 5, v = 5 8 4, c = 5 Bemerkung: Die QR-Zerlegung lässt sich auch auf Matrizen der Form A R m n mit m>nanwenden, und wir erhalten A = Q R, wobei ( ) R R = mit einer Dreiecksmatrix R R n n und einer Nullmatrix R m n n Daher ist die QR- Zerlegung auch in der Ausgleichsrechnung anwendbar Falls keine Pivotisierungsprobleme auftreten, folgt dann A x b = Q R x b = Q T (Q R x b) = R x Q T b min

18 Kapitel 5: MATRIZENEIGENWERTPROBLEME 77 Daher ist dann nur noch R x =(Q T b) n zu berechnen, wobei (Q T b) n den Teilvektor von Q T b bezeichnet, der nur die ersten n Komponenten von Q T b enthält Anwendung des QR-Verfahrens zur Berechnung der Eigenwerte Definition 56: (QR-Transformation) Gegeben sei eine Matrix A := A R n n Für m =,, zerlege man A m in der Form A m = Q m R m mit einer orthogonalen Matrix Q m und einer oberen Dreiecksmatrix R m, und bilde das vertauschte Produkt Wegen Q T A m m = R m gilt dann A m+ := R m Q m A m+ = Q T m A m Q m, dh, alle A m haben dieselben Eigenwerte wie A = A Satz 57: Die Eigenwerte der Matrix A R n n seien paarweise dem Betrage nach und von Null verschieden Ferner gestatte die Inverse T der Matrix der (linear unabhängigen) Eigenvektoren von A eine LU-Zerlegung (ohne Pivotisierung) Dann gilt für die mittels der QR- Transformation erzeugte Folge von Matrizen A m : - Die Diagonalelemente streben gegen die Eigenwerte von A Diese sind dem Betrage nach geordnet - Die Elemente unter der Diagonale gehen gegen Null - Die Folgen {A m } und {A m+ } streben jeweils gegen obere Dreiecksmatrizen Ferner konvergiert die Folge der Q m gegen eine Diagonalmatrix, die nur oder auf der Diagonale hat Beweis: R Schaback, H Wendland: Numerische Mathematik, 5 Auflage, Springer, 5 54 Eigenwerteinschließungen Wir betrachten nun zwei Verfahren, mit denen das Spektrum einer Matrix A K n n (mit K = R oder K = C) grob eingegrenzt werden kann Solche Abschätzungen können zur Wahl geeigneter Startwerte für Iterationsverfahren ausgenutzt werden Satz 58: (Satz von Gerschgorin) Sei A =(a jk ) n j,k= Kn n und λ ein beliebiger Eigenwert von A Dann gilt n n λ K i = z : z a ii a ij i= i= j= j i

19 78 Kapitel 5: MATRIZENEIGENWERTPROBLEME Die Kreise K i heißen Gerschgorin-Kreise Beweis: Sei Ax = λx mit x =(x,,x n ) T Dann existiert eine Komponente x i mit x j x i für alle j i Sei(Ax) i die i-tekomponentevonax dann ist und somit folgt Also ist λ K i n K j j= λx i =(Ax) i = λ a ii = j= j a ij x j, j= a ij x j x i a ij j= j Bemerkung: Ist λ S(A) (S Spektrum von A), dann ist λ S(A )wobei { A T A K = R, = A T K = C Tatsächlich gilt det(a λi) = det (A λi) T = det(a T λi) = Für λ S(A ) gilt der Satz von Gerschgorin nun entsprechend, dh, n λ z : z a ii a ji i= j= j i bzw λ n z : z a ii i= n a ji = Ki j= j i= Beispiel: Wir wollen die Eigenwerte der Matrix A = 4 3 mit Hilfe des Satzes von Gerschgorin abschätzen Wir erhalten die Gerschgorin-Kreise 5 K = {µ : µ }, K = {µ : µ 4}, K 3 = {µ : µ 3 } 3

20 Kapitel 5: MATRIZENEIGENWERTPROBLEME 79 Da S(A) =S(A T ) wenden wir den Satz auch auf A T Kreise an und erhalten die Gerschgorin- K = {µ : µ }, K = {µ : µ }, K3 = {µ : µ 3 5} 5 3 Auf diese Weise läßt sich die erste Abschätzung des Eigenwerts in der Nähe von noch verbessern! Bemerkung: Die Aussage des Satzes von Gerschgorin beinhaltet, dass strikt diagonaldominante Matrizen nicht singulär sind Weitere Einschließungsresultate für S(A) beruhen auf dem Konzept des Wertebereichs einer Matrix Definition 59: Unter dem Wertebereich einer Matrix A C n n versteht man die Menge aller Rayleigh- Quotienten xt Ax x T x mit x Cn \{} { } W (A) := z = xt A x x T x : x Cn \{}, = {z = x T A x : x C n \{}, x =} Lemma 5: (a) W (A) ist zusammenhängend (b) Ist A C n n hermitesch, dann ist W (A) das reelle Intervall [λ n,λ, wobei λ den größten und λ n den kleinsten Eigenwert von A bezeichnet (c) Ist A schiefhermitesch, dh A T = A, dannistw (A) ein rein imaginäres Intervall, nämlich die konvexe Hülle aller Eigenwerte von A Beweis: a) Liegen z und z z in W (A), dann existieren x, x C n \{} mit z = xt A x x T x, z = xt A x x T x Wegen z z sind x und x linear unabhängig, so dass die Verbindungsstrecke nicht den Nullpunkt enthält Also ist [x, x :={x t = x + t(x x ): t [, } z t := xt t A x t x T t x t, t,

21 8 Kapitel 5: MATRIZENEIGENWERTPROBLEME eine stetige Kurve in W (A) diez und z verbindet b) Sei A hermitesch Dann ist W (A) reell, denn x T x = x > ist reell und x T A x = x T A x =(x T A x) T = x T A T x = x T A x }{{} =A Wegen a) ist W (A) also ein abgeschlossenes reelles Intervall Wir berechnen den maximalen Wert in W (A): Wähle dazu ein α>so,dassa + α I positiv definit ist Dann existiert eine Cholesky- Zerlegung A + α I = G G T, und für x = gilt Also folgt x T A x = x T (A + αi)x x T αi x = x T G G T x α = G T x }{{} α =α max W (A) = max x = xt A x = max x = GT x α = ρ(g G T ) α = ρ(a + αi) α = λ, denn λ ist ein Eigenwert von A genau dann, wenn λ + α ein Eigenwert von A + αi ist: A x = λ x A x + αx =(λ + α)x (A + αi) x =(λ + α) x Durch Übergang von W (A) zu W ( A) beweist man entsprechend, dass der linke Endpunkt von W (A) der kleinste Eigenwert λ n von A ist c) Wegen A T = A ist ia hermitesch, denn (i A) T = i A T = i A T = i A Außerdem gilt W (ia) =iw (A) und S(iA) =is(a) Die Behauptung folgt nun aus Teil b) Bemerkung: Jede Matrix A C n n lässt sich in eine hermitesche Matrix (A + AT ) und eine schiefhermitesche Matrix (A AT ) zerlegen, A = A + AT + A AT Satz 5: (Satz von Bendixson) Das Spektrum von A C n n ist in dem Rechteck ( A + A ) ( A A ) R = W + W enthalten Dabei bezeichnet für Mengen W,W {a + b : a W,b W } C n die Summe W + W die Menge

22 Kapitel 5: MATRIZENEIGENWERTPROBLEME 8 Beweis: Wir zeigen, dass W (A) R Für x C n mit x = gilt ( x T A x = x T A + A T ) + A AT x (A + A T ) (A = x x + x T + A T ) ( A + A ) x W + W ( A A ) Aus Lemma 5 folgt, dass diese Einschlussmenge ein Rechteck ist Beispiel: Wir betrachten die Matrix A = 4 3 und wollen mit Hilfe der Sätze von Gerschgorin und Bendixson deren Eigenwerte abschätzen Für die Gerschgorinkreise von A bzw A T erhalten wir K = {z : z 4 3}, K = {z : z 4 }, K = {z : z + }, K = {z : z + }, K 3 = {z : z }, K3 = {z : z 4} Anwendung des Satzes von Bendixson ergibt H = A + AT = 4, S = A AT = Wir schätzen die Eigenwerte von H nun wieder mit Hilfe von Satz 58 ab und erhalten [4, 4+ [, + [ 3, +3=[ 3, 6 Die Eigenwerte von S sind in [ i, +i=[ i, i enthalten Nach dem Satz von Bendixson liegen die Eigenwerte von A also im Rechteck R =[ 3, 6 + [ i, i Die tatsächlichen Eigenwerte von A sind S(A) ={ 7838,98,46679 }

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Sommer 2017 Musterlösung

Sommer 2017 Musterlösung Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1. b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Kapitel 3. Iterative Verfahren für LGS. 3.1 Der Banach sche Fixpunktsatz. Definition 3.1:

Kapitel 3. Iterative Verfahren für LGS. 3.1 Der Banach sche Fixpunktsatz. Definition 3.1: Kapitel 3 Iterative Verfahren für LGS 3 Der Banach sche Fixpunktsatz Sei A R n n invertierbar und das LGS A x b gegeben Ein iteratives Verfahren besteht aus einer Berechnungsvorschrift x (j+) F ( x (j))

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 13 1. Die Matrix A±I ist singulär falls es einen Vektor x 0 gibt der die Gleichung (A±I)x = 0 erfüllt, d.h. wenn A ± I als

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

3 Eigenwertberechnung

3 Eigenwertberechnung 3 Eigenwertberechnung (3.) Definition Eine Matrix A R, heißt (obere) Block-Dreiecksmatrix, wenn ein n existiert, sodass A[n + :, : n] = 0 gilt, d.h.: A = ( ) A[ : n, : n] A[ : n,n + : ] 0 A[n + :,n + :

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

Diplom VP Numerik 27. August 2007

Diplom VP Numerik 27. August 2007 Diplom VP Numerik 27. August 2007 Multiple-Choice-Test 30 Punkte Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15. Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud. Dr. V. Gradinaru D. Devaud Herbstsemester 15 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 1 Aufgabe 1.1 1.1a) Sei A eine n n-matrix. Das Gleichungssystem Ax = b sei

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Institut für Geometrie und Praktische Mathematik Multiple-Choice-Test NumaMB F08 (30 Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 11 1. Juni 2010 Rechenregeln für Determinanten Satz 62. (Determinanten von Dreiecksmatrizen) Es sei A eine obere oder untere n n-dreiecksmatrix.

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Lineare Algebra für Ingenieure

Lineare Algebra für Ingenieure TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1. Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 5 : Eigenwerte und Eigenvektoren Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Vorlesungsskript HM-Numerik (SS 4): Kapitel Version: 9 Mai 4 Lineare Gleichungssysteme Gegeben: A R n n mit det(a) b R n Gesucht: x R n mit Ax = b Zeilenäquilibrierung Möchten zunächst die Kondition des

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg.

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg. Übungsaufgaben 13. Übung: Woche vom 23. 1.-27. 1. 2017 (Lin.Alg. II): Heft Ü 3: 1.1.3; 1.1.7 (a,b); 1.1.8; 1.1.11; 3.4.3 (b); 1.3.3 (c); 1.2.3 (b,d); Hinweis 1: 3. Test (Integration, analyt. Geom.) ist

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme Lineare Gleichungssysteme Wir wissen bereits, dass ein lineares Gleichungssystem genau dann eindeutig lösbar ist, wenn die zugehörige Matrix regulär ist. In diesem Kapitel lernen wir unterschiedliche Verfahren

Mehr

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3.

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3. Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 7.7.6 Aufgabe N (LR-Zerlegung mit Pivotisierung) Gegeben seien 6 8 A = 8 6 R und b = 6 R. a) Berechnen Sie die LR-Zerlegung von A mit Spaltenpivotisierung.

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012 Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG Winter 2013 Prof. H.-R. Künsch. Regeln Multiple Choice:

Lineare Algebra und Numerische Mathematik D-BAUG Winter 2013 Prof. H.-R. Künsch. Regeln Multiple Choice: b Prüfung Lineare Algebra und Numerische Mathematik D-BAUG Winter 03 Prof. H.-R. Künsch c Alle Aufgaben haben das gleiche Gewicht. Die Lösungswege müssen, abgesehen von Aufgabe, nachvollziehbar dargestellt

Mehr

III Das Symmetrische Eigenwertproblem (SEP)

III Das Symmetrische Eigenwertproblem (SEP) III Das Symmetrische Eigenwertproblem (SEP) III3 Algorithmen für symmetrische tridiagonale Eigenwertprobleme Sei im folgenden a b A = b a b b n a n b n b n a n R n n, zb nach Householder- oder Lanczos(im

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Serie 8: Online-Test

Serie 8: Online-Test D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

6 Die Schursche Normalform und einige Klassen von Matrizen

6 Die Schursche Normalform und einige Klassen von Matrizen ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b]) Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11 D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. Wir betrachten das überbestimmte Gleichungssystem Ax = y mit 1 1 1 1 A := 1 1 0 1 0 1, y := 2 3 0 0 1 4 Berechnen Sie die

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 0 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do -4 und nv jokar@mathtu-berlinde Kapitel Die Determinante

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A. Dr V Gradinaru D Devaud A Hiltebrand Herbstsemester 2014 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 91 91a) Sei A eine n n-matrix Das Gleichungssystem Ax

Mehr

c i u i. (10.2) x = i

c i u i. (10.2) x = i Kapitel 0 Von Mises Wielandt Verfahren Im Folgenden wollen wir uns ausschließlich auf reelle, symmetrischen Matrizen der Ordnung n beschränken. Wie im letzten Kapitel diskutiert, sind für solche Matrizen

Mehr

Probeklausur zu Mathematik 2 für Informatik

Probeklausur zu Mathematik 2 für Informatik Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Numerisches Programmieren (IN0019)

Numerisches Programmieren (IN0019) Numerisches Programmieren (IN0019) Frank R. Schmidt Winter Semester 2016/2017 9. Symmetrisches Eigenwertproblem.................................................................................... 2 Eigenwert-Problem

Mehr