Berechnung von Eigenwerten und Eigenvektoren

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Berechnung von Eigenwerten und Eigenvektoren"

Transkript

1 Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n. Bestimme λ C und v C n, v 0, so dass Av = λv 5.1) gilt. Hierbei heißt λ Eigenwert und v Eigenvektor zum Eigenwert λ. In der Vorlesung wird vor allem der Fall betrachtet, dass A eine symmetrische Matrix ist. Dann sind alle Eigenwerte und alle Eigenvektoren reell. Beispiel 5. Spektralnorm und Spektralkondition einer symmetrischen Matrix.Für eine symmetrische invertierbare Matrix A gelten A = λ max A) und A 1 = λ min A) 1. Damit muss man für die Berechnung der Spektralnorm von A den betragsmäßig größten Eigenwert bestimmen und zur Berechnung der Spektralkondition noch zusätzlich den betragsmäßig kleinsten Eigenwert. Es ist jedoch nicht nötig, alle Eigenwerte zu berechnen. Beispiel 5.3 Modellierung von Schwingungsabläufen, Sturm 1 Liouville Problem. Die gedämpfte Schwingung einer Feder wird durch die Differentialgleichung u x)+λrx)ux) = 0, x 0,1), 5.) mit den Randbedingungen u0) = u1) = 0 modelliert. In 5.) ist die Funktion r C[0,1]) mit rx) > 0 gegeben und die Funktion ux) sowie die Zahlen λ sind gesucht. Die Funktion rx) beschreibt die Dichte der Feder im Punkt x. Im Fall rx) 1 rechnet man direkt nach, dass λ = kπ) und ux) = sinkπx), k = 0,1,,... Lösungen von 5.) sind. Ist rx) nicht konstant, dann gibt es aber im Allgemeinen keine geschlossene Formel, um die Lösungen darzustellen. Man muss die Lösungen numerisch approximieren. Dazu kann man [0,1] in ein äquidistantes Gitter mit n Intervallen und der Schrittweite h = 1/n zerlegen. Nun werden die Funktionen rx) und ux) in 5.) in den Gitterpunkten x i, i = 0,...,n, betrachtet und die zweite Ableitung in den inneren Gitterpunkten wird durch einen Differenzenquotienten approximiert u x i ) ux i +h) ux i )+ux i h) h, i = 1,...,n ) 1 Jacques Charles Francois Sturm ) Joseph Liouville ) 60

2 Mit Taylor Entwicklung kann man nachrechnen, dass diese Approximation genau bis auf Terme der Ordnung h ist, wenn ux) glatt genug ist. In den Randpunkten braucht man die zweite Ableitung nicht, da dort die Lösung gegeben ist. Bezeichne u i die approximierte Lösung im Gitterpunkt x i, i = 0,...,n. Dann wird in der Praxis in 5.3) ux i ) durch u i usw. ersetzt. Einsetzen der Approximationen in 5.) ergibt für die Knoten u 0 = 0, u i+1 u i +u i 1 h +λrx i )u i = 0, i = 1,...,n 1, u n = 0. Die Randwerte kann man in die Gleichung für i = 1 beziehungsweise i = n 1 einsetzen und man erhält letztlich ein Gleichungssystem mit n 1) Gleichungen für die n 1) Unbekannten u T = u 1,...,u n 1 ) der Gestalt Bu+λDu = 0 mit 1 rx 1 ). B = h , D = rx ) rx n 1 ) Da nach Voraussetzung rx i ) > 0 für alle i ist, kann man bilden. Damit erhält man D 1/ = diag rx 1 ),..., rx n 1 )) Bu = λdu = λd 1/ D 1/ u D 1/ Bu = λd 1/ u. Setzt man v = D 1/ u, so ergibt sich ein Eigenwertproblem der Gestalt 5.1) Da A symmetrisch A T = Av = D 1/ BD 1/ v = λv. D 1/ BD 1/) T = D T/ B T D T/ = D 1/ BD 1/ = A und positiv definit ist, sind alle Eigenwerte reell und positiv. In dieser Aufgabe sind alle Eigenwerte und alle Eigenvektoren gesucht. 5. Zur Theorie des Eigenwertproblems Bemerkung 5.4 Inhalt. Dieser Abschnitt stellt einige Aussagen zur Theorie des Eigenwertproblems 5.1) zusammen, die zum Teil schon aus der linearen Algebra bekannt sind. Bemerkung 5.5 Das charakteristische Polynom. Die Zahl λ C ist genau dann Eigenwert von A R n n, wenn pλ) = deta λi) = 0. 61

3 Man nennt pλ) P n das charakteristische Polynom der MatrixA. Seine Nullstellen sind die Eigenwerte von A. Die Verwendung des charakteristischen Polynoms zur Berechnung der Eigenwerte von A besitzt jedoch in der Praxis entscheidende Nachteile. Zuerst müssen die Koeffizienten des Polynoms berechnet werden. Das ist für große n aufwändig. Des Weiteren hängen die Nullstellen oft sensibel von den Koeffizienten des charakteristischen Polynoms ab. Das Problem ist also schlecht konditioniert, insbesondere wenn die Matrix mehrfache Eigenwerte besitzt. Insgesamt ist das charakteristische Polynom zur numerischen Berechnung von Eigenwerten einer Matrix nicht brauchbar. Übungsaufgabe) Bemerkung 5.6 Weitere bekannte Aussagen, Begriffe. Das charakteristische Polynom pλ) besitzt nach dem Fundamentalsatz der Algebra genau n mit entsprechender Vielfachheit gezählte) reelle oder komplexe Nullstellen,...,λ n. Der Eigenwert λ i heißt einfacher Eigenwert, wenn die entsprechende Nullstelle des charakteristischen Polynoms einfach ist. Die Menge aller Eigenwerte von A heißt Spektrum von A. σa) = {,...,λ n } Zwei Matrizen A,B R n n heißen ähnlich über dem Körper der reellen Zahlen), wenn es eine invertierbare Matrix T R n n gibt mit der Eigenschaft B = T 1 AT. Ähnliche Matrizen besitzen das gleiche Spektrum σa) = σt 1 AT) für eine beliebige invertierbare Matrix T R n n. Die Matrix A R n n heißt diagonalisierbar, wenn A zu einer Diagonalmatrix ähnlich ist. Die Matrix A ist genau dann diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren hat. Besitzt A R n n n verschiedene Eigenwerte, so ist A diagonalisierbar. Lemma 5.7 Reelle Schur 3 Faktorisierungen. Zu jeder Matrix A R n n gibt es eine orthogonale Matrix Q R n n, so dass R Q T AQ =... = R. 5.4) 0... Rmm Dabei ist für jedes i {1,...,m} entweder R ii R oder R ii R. Im letzteren Fall hat R ii ein Paar von konjugiert komplexen Eigenwerten. Die Menge aller Eigenwerte der R ii, i = 1,...,m, bilden das Spektrum von A. Die Zerlegung ist nicht eindeutig. 3 Issai Schur ) 6

4 Beweis: Für einen Beweis sei auf die Literatur verwiesen, zum Beispiel Golub and Van Loan, 1996, S. 341). Folgerung 5.8 Diagonalisierbarkeit symmetrischer Matrizen. Jede symmetrische Matrix A R n n lässt sich mittels einer orthogonalen Matrix Q R n n durch eine Ähnlichkeitstransformation auf Diagonalgestalt bringen Q 1 AQ = D = diag,...,λ n ). Die Matrix A besitzt somit nur reelle Eigenwerte und n linear unabhängige, zueinander orthogonale Eigenvektoren, nämlich die Spalten von Q Beweis: Die Symmetrie von R folgt direkt aus 5.4) und der Symmetrie von A R T = Q 1 AQ ) T = Q T A T Q T = Q 1 AQ = R. Auf Grund der speziellen Gestalt von R, siehe 5.4), ist der mit markierte Block ein Nullblock. Es können nun noch symmetrische Blöcke R ii auftreten. Man rechnet aber direkt nach, dass symmetrische Matrizen immer reelle Eigenwerte besitzen, da die Diskriminante des charakteristischen Polynoms nichtnegativ ist. Somit widerspricht das Auftreten von symmetrischen Blöcken den Aussagen von Lemma 5.7 und R muss eine Diagonalmatrix sein. 5.3 Kondition des Eigenwertproblems Bemerkung 5.9 Inhalt. In diesem Abschnitt wird untersucht, wie stark sich Eigenwerte und Eigenvektoren bei Störungen in A verändern. Satz 5.10 Absolute Kondition des Eigenwertproblems. Sei A R n n diagonalisierbar, das heißt es existiert eine Matrix T R n n mit T 1 AT = diag,...,λ n ). Sei A R n n eine Störung von A und sei µ ein Eigenwert der gestörten Matrix A+ A. Dann gilt für alle p [1, ]. min λ i µ T 1 i n p T 1 p A p 5.5) Beweis: Auch hier sei für den Beweis wieder auf die Literatur, zum Beispiel Golub and Van Loan 1996) oder Stoer and Bulirsch 005). Bemerkung 5.11 Interpretation von Satz Die absolute Kondition des Eigenwertproblems min 1 i n λ i µ sup A A p hängt von κ p T) = T T 1 p p und nicht von κ p A) ab. Da die Spalten von T gerade die Eigenvektoren von A sind, bedeutet 5.5) gerade, dass für eine diagonalisierbare Matrix die Kondition der Eigenvektorbasis eine große Rolle bei der Empfindlichkeit der Eigenwerte von A bezüglich Störungen spielt. 63

5 Beispiel 5.1 Kondition eines Eigenwertproblems. Betrachte ) 0 1 A = 0 0 und die gestörte Matrix A+ A = ) 0 1 δ 0 mit δ > 0. Die Eigenwerte von A sind = λ = 0 und die von A + A sind, = ± δ. Für die Kondition des Eigenwertproblems ergibt sich somit κ = A+ A A δ δ = 1 δ für δ 0. Offenbar kann das Eigenwertproblem für beliebige Matrizen beliebig schlecht konditioniert sein. Folgerung 5.13 Kondition des Eigenwertproblems für symmetrische Matrizen. Sei A R n n symmetrisch und sei µ ein Eigenwert der gestörten Matrix A+ A. Dann gilt min 1 i n λ i µ A. Das Eigenwertproblem für symmetrische Matrizen ist also gut konditioniert. Beweis: Nach Folgerung 5.8 lässt sich A mittels einer Orthogonalmatrix Q diagonalisieren. Da für Orthogonalmatrizen κ Q) = 1 gilt, folgt die Behauptung direkt aus 5.5). 5.4 Abschätzungen für Eigenwerte Bemerkung 5.14 Inhalt. In diesem Abschnitt werden Abschätzungen für Eigenwerte angegeben, welche man aus direkt zugänglichen Informationen, zum Beispiel den Einträgen der Matrix, erhält, ohne dass man die Eigenwerte explizit berechnen muss. Lemma 5.15 Eigenschaften von Eigenwerten und des Spektrums. Seien A,B R n n. Dann gelten die folgenden Aussagen. i) Falls deta) 0 und λ ein Eigenwert von A ist, so ist λ 1 ein Eigenwert von A 1. ii) Ist λ σa), dann ist αλ σαa) für beliebiges α C. iii) Ist λ σa), dann ist λ α) σa αi). Man nennt α Spektralverschiebung oder Shift. iv) Ist λ σa), dann ist λ σa). v) Es gilt σa) = σa T ). vi) Es gilt σab) = σba). Beweis: Alle Aussagen sind aus der Linearen Algebra bekannt. Lemma 5.16 Abschätzung von Eigenwerten mit Matrixnormen. Es gilt λ A für jedes λ σa) und jede Matrixnorm. 64

6 Beweis: Sei λ σa) und sei v ein zugehöriger Eigenvektor mit v = 1, wobei die Vektornorm zur Matrixnorm verträglich ist. Dann gilt mit einer Normeigenschaft, der Eigenwertaufgabe und der Verträglichkeit der Normen λ = λ v = λv = Av A v = A. Bemerkung 5.17 Zur Abschätzung von Eigenwerten mit Matrixnormen. Der Spektralradius einer Matrix A R n n ist definiert durch ρa) = max{ λ : λ σa)}. Aus Lemma 5.16 folgt sofort, dass ρa) A für jede Matrixnorm. Man kann zeigen, dass es zu jedem ε > 0 eine Matrixnorm gibt, so dass die Ungleichung A ρa)+ε gilt. Satz 5.18 Kreissatz von Gerschgorin 4. Sei A R n n und seien K i = z C : z a ii a ij die Gerschgorin Kreise. Dann gilt σa) i=1,i j n K i. 5.6) Das heißt, alle Eigenwerte liegen in der Vereinigung der Gerschgorin Kreise. Beweis:SeiλeinEigenwertvonAmitEigenvektorx.FüreinenIndexigilt x i x j für alle j i. Da x ein Eigenvektor ist, gilt insbesondere x i > 0. Die i te Gleichung des Eigenwertproblems hat die Gestalt j=1,j i Mit Dreiecksungleichung folgt λ a ii x i = i=1 a ijx j +a ii λ)x i = 0. j=1,j i a ijx j Nun ergibt Division mit x i > 0 und x i x j λ a ii = j=1,j i j=1,j i a ij xj x i n j=1,j i a ij x j. a ij. Also liegt λ in einem der Gerschgorin Kreise und damit erst recht in der Vereinigung aller Gerschgorin Kreise. Folgerung 5.19 Weitere Einschränkungen des Bereiches der Eigenwerte. Sei A R n n mit den Gerschgorin Kreisen K i und seien Ki T die Gerschgorin Kreise von A T. Dann gilt n n ) σa) K i ). i=1 4 Semjon Aronowitsch Gerschgorin ) i=1 K T i 65

7 Falls A symmetrisch ist gilt σa) n K i R). i=1 Beweis: Aus Lemma 5.15 v) und dem Kreissatz von Gerschgorin für A T folgt σa) = σa T ) n Ki T. Zusammen mit 5.6) folgt damit die erste Aussage. Die zweite Aussage folgt daraus, dass alle Eigenwerte einer symmetrischen Matrix reell sind. Beispiel 5.0 Anwendung des Kreissatzes von Gerschgorin. Betrachte die Matrix A = DieEigenwertevonAsindmitMATLABberechnet) =.3,λ,3 = ± i. Zunächst kann man den Betrag der Eigenwerte mit Normen von A abschätzen. Man erhält A 1 = 5, A F = , A = 5. Damit ergibt sich λ i 5, i = 1,,3. Die Gerschgorin Kreise von A und A T sind K 1 = {z : z 4 1}, K T 1 = {z : z 4 1}, K = {z : z + 1}, K T = {z : z + }, K 3 = {z : z 3 }, K T 3 = {z : z 3 1}. Betrachtet man nun den Schnitt gemäß Folgerung 5.19, so erhält man mit i=1 σa) K 1 K K 3 K 1 = {z : z 4 1}, K = {z : z + 1}, K1 = {z : z 3 1}. 5.5 Die Potenzmethode oder Vektoriteration Bemerkung 5.1 Grundidee.DiePotenzmethodeoderVektoriterationisteinVerfahren zur Berechnung des betragsgrößten Eigenwertes und eines zugehörigen Eigenvektors einer Matrix A. Dieses Verfahren geht auf von Mises 5 zurück. Es liefert das Grundkonzept für die Entwicklung weiterer Verfahren zur Berechnung von Eigenwerten und vektoren. Der Einfachheit halber werden für die Konvergenzanalyse einige Annahmen gemacht. Die Matrix A R n n sei diagonalisierbar. Weiter gelte für die Eigenwerte 5 Richard von Mises ) > λ... λ n, 66

8 dasheißt,derbetragsgrößteeigenwertsolleinfachsein.insbesonderesinddamitalle Eigenwerte reell, alle Eigenvektoren v j, j = 1,...,n, reell und die Eigenvektoren spannen R n auf. Für die Potenzmethode benötigt man einen Startvektor x 0) R n. Dieser lässt sich als Linearkombination der Eigenvektoren darstellen x 0) = c j v j. j=1 Sei x 0) so gewählt, dass c 1 0 gilt. Multipliziert man die Darstellung von x 0) mit der k ten Potenz A k von, so erhält man Damit gilt A k x 0) = x k) := A k x 0) = λ k 1 c 1 v 1 + Wegen λ j / < 1 folgt c j A k v j = j=1 j= lim k rk) = lim k c j λ k jv j. j=1 ) k λj c j v j =: λ k 1 c 1 v 1 +r k)). 5.7) j= ) k λj c j v j = 0. Das bedeutet, für große k dominiert in 5.7) der Beitrag vom ersten Eigenwert und Eigenvektor. Satz 5. Konvergenz der Vektoriteration. Sei A R n n und erfülle A die Voraussetzungen aus Bemerkung 5.1. Sei x k) R n die k te Iterierte der Potenzmethode und sei ) x k) T ) Ax k) x k) T x k+1) λ k) = x k) = x k). Dann gilt λ k) λ k) = O. Beweis: Man betrachtet den Abstand zwischen dem Unterraum S k) := {αx k) : α R} und dem Eigenvektor v 1 ) d S k),v 1 := min x v 1 = minαx k) v 1. x S k) α R Nun formt man 5.7) äquivalent um λ k 1c 1 ) 1x k) = v 1 +c 1 1 r k). 5.8) ) Wählt man in d S k),v 1 den Wert α = α k := ) 1, λ k 1c 1 so erhält man damit und der Definition von r k) ) d S k),v 1 α k x k) v 1 = c 1 k) r = O 1 λ k). 5.9) 67

9 Damit ist α k x k) eine Approximation an v 1, also Aα k x k) α k x k) = Ax k) x k). ) T Durch Multiplikation dieser Beziehung von links mit x k) folgt, dass λ k) = x k) ) T Ax k) x k) = x k) ) T x k+1) x k) eine Approximation an ist. Analog ist α k+1 x k+1) mit α k+1 = ) λ k c 1 = αk / eine Approximation von v 1. Jetzt muss man noch die Güte dieser Approximation untersuchen. Man erhält mit 5.8), 5.9) und v 1 = 1 ) T ) ) T ) α k x α k) k x α k+1) k x α k) k+1 x k+1) λ k) = α k x k) = α k x k) ) T ) v 1 +c 1 1 rk) v 1 +c 1 1 rk+1) = v 1 +c 1 1 rk) v 1 +O )) λ k T v )) λ 1 +O k+1 = ) v1 +O λ k ) λ 1+O k λ 1 = 1+O λ 1+O ) = k λ1 λ k)). Die Gültigkeit des letzten Schrittes sieht man aus 1+O k)) k)) 1+O = 1+O λ λ = 1+O λ λ k) +O k), vergleiche Definition des Landau 6 Symbols. Durch Umstellen folgt λ k) λ k) = O. λ ) k Bemerkung 5.3 Symmetrische Matrizen. Falls A eine symmetrische Matrix ist, kann man sogar λ k) λ = O zeigen. k). Bemerkung 5.4 Skalierung der Iterierten. Wendet man das bisherige Verfahren an, so gelten x k) falls > 1, x k) 0 falls < 1. 6 Edmund Georg Hermann Landau ) 68

10 Aus diesen Gründen ist es zweckmäßig, die Iterierten zu skalieren. Damit werden starke Änderungen in der Größenordnung vermieden. Die Konvergenzaussagen ändern sich durch Skalierung auch nicht, da weder der Unterraum S k) noch die Iterierte λ k) von einer Skalierung von x k) abhängen. Algorithmus 5.5 Potenzmethode, Vektoriteration. Seien A R n n und y 0) 0 mit y 0) = 1 gegeben. Für k = 0,1,... berechne ỹ k+1) = Ay k) λ k) = ỹ k+1)) T y k) y k+1) = ỹ k+1) ỹ k+1). Bemerkung 5.6 Zu Algorithmus 5.5. Wählt man y 0) = x 0), so weist man mit vollständiger Induktion nach, dass y k) = xk) x k) = Ak x 0) A k x 0). Also liefert Algorithmus 5.5, bis auf Skalierung in x k), die oben analysierten Folgen {x k) } und {λ k) }. Die Konvergenzgeschwindigkeit der Potenzmethode hängt wesentlich vom Verhältnis von und λ ab. Beispiel 5.7 Sturm Liouville Problem. Betrachte das in Beispiel 5.3 hergeleitete Eigenwerproblem Av = λv. Sei rx) 1, dann sind die Eigenwerte von A bekannt λ n j = 4 ) jπh h sin, j = 1,...,n 1, h = 1 n. Es ist > λ >... > λ n 1. Dann erhält man mit h = 1/n, einem Additionstheorem für die Sinusfunktion, Taylorentwicklung und Polynomdivision λ sin ) n )πh = sin ) = sin π πh) n 1)πh sin π ) πh = cos πh) cos ) πh ) 1 πh) 1 πh/) ) = 1 π h + π 1 π h 4 h π4 h π h. Man erkennt, dass man im Fall h 1 mit einer sehr langsamen Konvergenz λ k) rechnen muss. Bemerkung 5.8 Fazit.FallsAdiagonalisierbaristund eineinfachereigenwert ist, dann konvergiert Algorithmus 5.5. Die Konvergenz kann aber sehr langsam sein. Bemerkung 5.9 Berechnung anderer Eigenwerte, inverse Vektoriteration, Spektralverschiebung. Sei A R n n nichtsingulär und diagonalisierbar. Die Eigenwertgleichung Av i = λ i v i, i = 1,...,n, ist äquivalent zu 1 λ i v i = A 1 v i. 69

11 Damit würde die Vektoriteration angewandt mit A 1 unter der Annahme λ... λ n 1 > λ n den betragsmäßig größten Eigenwert λ n von A 1 berechnen, das heißt den betragsmäßig kleinsten Eigenwert von A. Nach Lemma 5.15, iii), ist λ i ein Eigenwert von A genau dann, wenn λ i µ ein Eigenwert von A µi ist. Angenommen, man hätte eine Schätzung µ λ i eines beliebigen einfachen reellen Eigenwertes von A, so dass λ i µ < λ j µ, für alle i j. 5.10) Dann ist λ i µ) 1 der betragsmäßig größte Eigenwert von A µi) 1. Zur Berechnung dieses Eigenwertes kann man die Vektoriteration anwenden. Algorithmus 5.30 Inverse Vektoriteration mit Spektralverschiebung. Gesucht ist der einfache reelle Eigenwert λ i von A R n n. Wähle µ so, dass 5.10) gilt und wähle einen Startvektor y 0) 0 mit y 0) = 1. Für k = 0,1,... berechne A µi)ỹ k+1) = y k) 5.11) λ k) 1 = ỹk+1) ) T +µ y k) y k+1) = ỹ k+1) ỹ k+1). Bemerkung 5.31 Zu Algorithmus In5.11)mussmaneinlinearesGleichungssystemmitderMatrixA µi)lösen. Dafür berechnet man einmal eine LU oder QR Zerlegung von A µi). Die Vektoriteration, Algorithmus 5.5, strebt gegen λ i µ) 1. Das bedeutet für die Iterierten aus Algorithmus 5.30, dass λ k) = 1 ỹk+1) ) T y k) +µ λ i µ+µ = λ i für k. Die Konvergenzgeschwindigkeit von Algorithmus 5.30 hängt wie bei der Vektoriteration von Verhältnis der betragsgrößten Eigenwerte ab. Das ist hier max j i λ j µ 1 λ i µ 1 = min 1 j i λ j µ ) λ i µ λ i µ 1 = min j i λ j µ. Hat man also eine gute Schätzung µ von λ i, dann gilt λ i µ min j i λ j µ 1 und das Verfahren konvergiert sehr schnell. In der Praxis ist allerdings im Allgemeinen nicht klar, wie man µ wählen sollte. Die Konvergenzgeschwindigkeit kann verbessert werden, wenn man während der Iteration den Parameter µ geeignet anpasst, zum Beispiel mit der aktuellen Iterierten µ = λ k). Nach jeder Anpassung muss man allerdings die Matrix A µi) neu faktorisieren, so dass die Kosten dieses Iterationsschrittes sehr hoch sind. 70

12 5.6 Das QR Verfahren Bemerkung 5.3 Inhalt. Sei A R n n eine symmetrische Matrix. Aus Folgerung 5.13 ist bekannt, dass das Eigenwertproblem für A gut konditioniert ist. Dieser Abschnitt stellt ein Verfahren zur Berechnung aller Eigenwerte und Eigenvektoren von A vor. Bemerkung 5.33 Transformationen von A durch Orthogonaltransformationen. Aus Folgerung 5.8 ist bekannt, dass alle Eigenwerte von A reell sind, A diagonlisierbar ist und eine Orthonormalbasis aus Eigenvektoren {v 1,...,v n } existiert, so dass Q 1 AQ = diag,...,λ n ) mit Q = [v 1,...,v n ]. Im Allgemeinen ist es jedoch nicht möglich, Q in endlich vielen Schritten zu bestimmen. Damit wäre auch ein endliches Verfahren zur Bestimmung aller Nullstellen eines Polynoms n ten Grades gefunden. Ein solches Verfahren, basierend auf elementaren Rechenoperation und der Quadratwurzel, kann es aber nach dem Satz von Abel 7 nicht geben. Es ist auch nicht möglich, A mit Orthogonaltransformationen, zum Beispiel mit Housholder Spiegelungen auf Diagonalgestalt zu bringen. Mit einer ersten Housholder Spiegelung kann man die Elemente der ersten Spalte unterhalb der Diagonalen zu Null machen. Wendet man dann eine Housholder Spiegelung auf die erste Zeile an, dann wird die erste Spalte wieder gefüllt A = Q Q. Man verliert auch die Symmetrie der Matrix. Es ist jedoch möglich, A mit orthogonalen Transformationen auf Tridiagonalgestalt zu bringen. Verwendet man eine orthogonale Matrix deren erste Zeile der erste Einheitsvektor ist und deren Spalten durch eine Housholder Spiegelung so konstruiert sind, dass die Elemente der ersten Spalte unter a 1 verschwinden, so erhält man A = Q Q T Die Anwendung von Q T 1 hat keine Auswirkungen auf die erste Spalte. Auf diese Art und Weise fährt man fort bis man eine Tridiagonalmatrix erhält. Lemma 5.34 Transformationen auf Tridiagonalgestalt. Sei A R n n symmetrisch. Dann existiert eine orthogonale Matrix Q R n n, die das Produkt von n ) Householder Spiegelungen ist, so dass QAQ T eine symmetrische Tridiagonalmatrix ist. 7 Niels Henrik Abel ) 71

13 Beweis: Die Fortsetzung des in Bemerkung 5.33 beschriebenen Prozesses und die Eigenschaften der Householder Matrizen Q 1,...,Q n liefern QAQ T = Q n...q 1AQ T 1...Q T n = Bemerkung 5.35 Reduktion des Eigenwertproblems. Die Matrizen A und QAQ T sind ähnlich und sie besitzen gemäß Bemerkung 5.6 dieselben Eigenwerte. Damit hat man also das Problem der Bestimmung der Eigenwerte einer symmetrischen Matrix auf das Problem der Bestimmung der Eigenwerte einer symmetrischen Tridiagonalmatrix reduziert. Bemerkung 5.36 Iteration mit Tridiagonalmatrizen. Die Berechnung der Eigenwerte einer Tridiagonalmatrix wird iterativ erfolgen. Die grundlegende Idee wurde in Rutishauser 1958) vorgestellt. Sei B = B 1 = Dann kann man eine Faktorisierung von B bestimmen, wobei in Rutishauser 1958) die LU Zerlegung vorgeschlagen wurde. Für Tridiagonalmatrizen erhält man ein Produkt aus zwei Bidiagonalmatrizen B = B 1 = LU = Nun vertauscht man die Faktoren B = UL = und wiederholt das Verfahren mit B. In den Arbeiten Francis 1961/196) und Kublanovskaja1961)wurdedasVerfahrenmodifiziert,indemstattderLU Zerlegung die stabile QR Zerlegung verwendet wurde. Mit diesem Verfahren erhält man eine Folge von Matrizen {B k } k N. Lemma 5.37 Eigenschaften der Matrizen {B k } k N. Die Matrizen {B k } k N seien mit dem Verfahren aus Bemerkung 5.36 definiert, wobei die Faktorisierung mittels einer QR Zerlegung vorgenommen wurde B k = Q k R k, B k+1 = R k Q k. Dann gelten: i) B k ist ähnlich zu B, k 1. ii) Falls B symmetrisch ist, so ist auch B k symmetrisch, k 1. 7

14 iii) Falls B symmetrisch und tridiagonal ist, so ist auch B k symmetrisch und tridiagonal, k 1. Beweis: i). Die Aussage ist bewiesen, wenn man gezeigt hat, dass B k und B k+1 für beliebiges k 1 ähnlich sind. Nach Konstruktion der Matrizen {B k } k N und einer Eigenschaft von Orthogonalmatrizen, Lemma.14, gilt Q k B k+1 Q T k = Q k R k Q k Q T k = Q k R k = B k. Das ist genau die Ähnlichkeit der beiden Matrizen. ii). Diese Aussage wird durch vollständige Induktion nach k gezeigt. Der Induktionsanfang, die Symmetrie von B 1 = B ist klar. Gelte also die Symmetrie für B k. Dann folgt B T k+1 = B T k+1q T kq k = Q k B k+1 ) T Q k = Q k R k Q k ) T Q k = B k Q k ) T Q k = Q T kb T k Q k = Q T kb k Q k = Q T kq k R k Q k = R k Q k = B k+1. iii). Der Beweis wird mit vollständiger Induktion nach k erbracht. Der Induktionsanfang ist wieder klar. Sei nun B k eine Tridiagonalmatrix. Dann kann man mit n 1) Givens Drehungen G i,k die Einträge der unteren Hauptnebendiagonalen zu Null machen und erhält eine Dreiecksmatrix R k mit dem Besetzheitsmuster B k = Q k R k = G 1,k...G n 1,k R k = G 1,k...G n 1,k Beispielsweise im ersten Schritt, bei der Givens Drehung G 1,k, wird ein Vielfaches der zweiten Zeile von B k zur ersten Zeile addiert. Da B k tridiagonal ist, also b j = 0 für j > 3, bleiben alle Elemente der ersten Zeile der resultierenden Matrix mit einem Spaltenindex größer als Drei Null. Nun ist B k+1 = R k Q k = R k G 1,k...G n 1,k = G,k...G n 1,k = G 3,k...G n 11,k =... = da G 1,k nur die ersten beiden Zeilen beeinflusst, G,k nur die zweite und dritte und so weiter. Nach Teil ii) ist B k+1 aber auch symmetrisch. Das bedeutet, dass der ganze Fill in im oberen Dreieck über der oberen Hauptnebendiagonalen verschwindet. Damit ist B k+1 tridiagonal. Satz 5.38 Iteration zur Approximation der Eigenwerte. Sei A R n n symmetrisch mit Eigenwerten,...,λ n, welche die Eigenschaft > λ >... > λ n > 0 haben mögen. Weiter seien die Matrizenfolgen {A k } k N, {Q k } k N und {R k } k N durch A 1 = A, A k = Q k R k, A k+1 ) = R k Q k definiert. Dann gibt es Vorzeichen ) Matrizen S k = diag σ k) 1,...,σk) n mit σ k) = 1 so dass lim S k 1Q k S k = I k i, 73

15 und lim S kr k S k 1 = lim S k 1A k S k = diag,...,λ n ) = D. k k Es gilt also insbesondere, da aus der Existenz des Grenzwertes S k 1 = S k ab einem gewissen Index folgt, dass lim k ak) jj = λ j, j = 1,...,n, wobei a k) jj das j te Diagonalelement von A k ist. Beweis: Der Beweis ist recht umfangreich und deshalb wird auf die Literatur verwiesen, zum Beispiel auf Wilkinson 1965). Bemerkung 5.39 Zu Satz Satz 5.38 bietet einen Algorithmus zur Konstruktion einer Schur Faktorisierung von A gemäß 5.4). Der Algorithmus aus Satz 5.38 lässt sich als Verallgemeinerung der Vektoriteration auffassen. Er entspricht der Projektion auf die Unterräume, die von den Spalten von A k aufgespannt werden, siehe Stoer and Bulirsch, 005, S. 58). Algorithmus 5.40 QR Verfahren zur Eigenwertberechnung. Sei die symmetrische matrix A R n n gegeben. 1. Transformiere A mit Hilfe von Householder Spiegelungen auf Tridiagonalgestalt B = Q T AQ.. Wende auf B den Algorithmus aus Satz 5.38 mit Givens Drehungen an, womit GBG T D und G das Produkt aller Givens Matrizen ist. Die Diagonale von GBG T approximiert die Eigenwerte von A und die Spalten von GQ T die zugehörigen Eigenvektoren. Bemerkung 5.41 Zum QR Verfahren. Der Aufwand des ersten Schrittes beträgt O 3 n3) Multiplikationen/Divisionen. Jede Iteration im. Schritt benötigt O n ) Multiplikationen/Divisionen. Man kann zeigen, dass die Konvergenzgeschwindigkeit des QR Verfahrens von den Faktoren λ j+1 /λ j für j = 1,...,n 1, abhängt. Liegt dieser Wert für einen oder mehrere Indizes nahe bei Eins, dann ist die Effizienz des Verfahrens schlecht. Abhilfe kann man auch hier mit einer Spektralverschiebung schaffen, vergleiche Algorithmus Mit einigen Modifikationen lässt sich das Verfahren auch auf nichtsymmetrische Matrizen anwenden, siehe beispielsweise Stoer and Bulirsch 005). 74

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

Einführung in die Grundlagen der Numerik

Einführung in die Grundlagen der Numerik Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Definition Eigenwertproblem Zu einer Matrix A R n n sind

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

Eigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80.

Eigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80. Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Institute for Numerical Simulation TUHH Heinrich Voss Kapitel 6 2010 1 / 80 Wir betrachten in diesem Kapitel die numerische Behandlung

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Leitfaden Lineare Algebra: Determinanten

Leitfaden Lineare Algebra: Determinanten Leitfaden Lineare Algebra: Determinanten Die symmetrische Gruppe S n. Eine Permutation σ der Menge S ist eine bijektive Abbildung σ : S S. Ist S eine endliche Menge, so reicht es zu verlangen, dass σ injektiv

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Komplexe Zahlen. Kapitel 1. 1.1 Definitionen 18.4.01

Komplexe Zahlen. Kapitel 1. 1.1 Definitionen 18.4.01 Kapitel Komplexe Zahlen Motivation: die Gleichung x = hat offensichtlich keine reellen Lösungen, da x 0 für jedes reelle x gilt Um auch diese Gleichung lösen zu können, muß man neue Zahlen einführen: die

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1 D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

7 Die Determinante einer Matrix

7 Die Determinante einer Matrix 7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

2 EIGENWERTPROBLEME. Av = λv

2 EIGENWERTPROBLEME. Av = λv EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. 2.2. POTENZREIHEN 207 2.2 Potenzreihen. Definitionen Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. Eine Potenzreihe mit Entwicklungspunkt x 0 ist eine Reihe a n x x 0 n. Es gilt: es

Mehr

QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof.

QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof. QR-Algorithmus Proseminar - Numerische Mathematik Sommersemester 2005 - Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann 1 Im Laufe der Jahre wurde immer wieder versucht, die

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Kapitel 11 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Lineare Algebra II 3. Übungsblatt

Lineare Algebra II 3. Übungsblatt Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Numerische Behandlung des Eigenwertproblems

Numerische Behandlung des Eigenwertproblems Numerische Behandlung des Eigenwertproblems Zusammenfassung Das Ziel dieses Vortrages ist, zwei gute Methoden für die numerische Bestimmung der Eigenwerte zu zeigen und wie man diese mit Matlab anwenden

Mehr

11. Primfaktorzerlegungen

11. Primfaktorzerlegungen 78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Lineare Gleichungssystem

Lineare Gleichungssystem Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme Lineare Gleichungssysteme Wir wissen bereits, dass ein lineares Gleichungssystem genau dann eindeutig lösbar ist, wenn die zugehörige Matrix regulär ist. In diesem Kapitel lernen wir unterschiedliche Verfahren

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14.

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14. Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Wintersemester 2009/0 4. Januar 200 Instabilitäten

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

A Matrix-Algebra. A.1 Definition und elementare Operationen

A Matrix-Algebra. A.1 Definition und elementare Operationen A Matrix-Algebra In diesem Anhang geben wir eine kompakte Einführung in die Matrizenrechnung bzw Matrix-Algebra Eine leicht lesbare Einführung mit sehr vielen Beispielen bietet die Einführung in die Moderne

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

9. Übungsblatt zur Mathematik I für Maschinenbau

9. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel Vorlesung 2 22 bzw 23 Januar 204 Lineares Gleichungssystem a a 2 b b 2 = F a a 2 a 3 b b 2 b 3 c c 2 c 3 = V V =< a, b c > c b a b a F V Seite 70 a x + a 2 x 2 + a 3 x 3 b = 0 < a x + a 2 x 2 + a 3 x 3

Mehr

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y. Determinanten Motivation: Man betrachte das lineare Gleichungssystem [ [ [ a b x u = (1) c d y v Sei obda a und c Dann ist (1) äquivalent zu [ [ ca cb x = ac ad y und ferner zu [ [ ca cb x ad cb y Falls

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math. Das QZ-Verfahren Bachelor-Arbeit im 1-Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt von Janina Gnutzmann Erstgutachter:

Mehr

Numerische Mathematik

Numerische Mathematik Numerische Mathematik Von Martin Hermann 2., überarbeitete und erweiterte Auflage Oldenbourg Verlag München Wien Vorwort zur ersten Auflage Vorwort zur zweiten Auflage V VII 1 Wichtige Phänomene des numerischen

Mehr