7 Theorie der Eigenwertprobleme

Größe: px
Ab Seite anzeigen:

Download "7 Theorie der Eigenwertprobleme"

Transkript

1 7 Theorie der Eigenwertprobleme 7.1 Definition und Eigenschaften SeiA n n.λ heißteigenwert(=rechtseigenwert) von A, wenn Ax = λx für ein x n \{0}. x ist dann Eigenvektor zu λ. λ ist daher genau dann Eigenwert, wenn die Matrix A λi singulär ist und damit das charakteristische Polynom von A φ(µ) = det(a µi) in λ eine Nullstelle besitzt. Die Größe σ(λ) = Vielfachheit der Nullstelle λ in φ heißt algebraische Vielfachheit von λ. Der Vektorraum heißt Eigenraum zu λ. Ferner heißt L(λ) = {x n : Ax = λx} ρ(λ) = diml(λ) geometrische Vielfachheit von λ. ρ(λ) ist die Zahl der linear unabhängigen Eigenvektoren zu λ. heißt Spektrum von A. σ(a) = {λ : λ ist Eigenwert von A} Satz 7.1 (a) Ist p(µ) ein Polynom und gilt Ax = λx für ein x 0, so besitzt p(a) ebenfalls den Eigenvektor x zum Eigenwert p(λ). (b) λ ist genau dann Eigenwert von A, wenn λ Eigenwert von A H ist. Insbesondere: Ist die Matrix A reellwertig, so ist mit einem komplexen Eigenwert λ von A auch λ Eigenwert von A. (d) Die Determinante von A stimmt mit dem Produkt aller Eigenwerte von A überein. (c) Ähnliche Matrizen besitzen das gleiche charakteristische Polynom, also auch die gleichen Eigenwerte. Wenn B = T 1 AT und A besitzt den Eigenwert λ mit Eigenvektor x, so besitzt B den Eigenwert λ mit Eigenvektor T 1 x. Beweis: (a) Aus Ax = λx folgt A k x = λ k x und p(a)x = a m A m x+...+a 0 x = p(λ)x. (b) det(a H λi) = det(a λi) H = det(a λi). (c) In φ(µ) = det(a µi) = ( 1) n (µ λ 1 )...(µ λ n ) setze man µ = 0. (d) Mit dem Determinantenmultiplikationssatz folgt det(b λi) = det(t 1 AT λi) = det ( T 1 (A λi)t ) = dett 1 det(a λi)dett = det(a λi). Ferner gilt BT 1 x = T 1 Ax = T 1 (λx) = λt 1 x. 63

2 Beispiel 7.2 Das Jordan-Kästchen der Länge ν zum Eigenwert λ ist definiert durch λ (7.1) C ν (λ) =... 1 ν ν. 0 λ Wegen det(c ν (µ) λi) = (µ λ) ν ist λ Eigenwert mit σ(λ) = ν, aber x = e 1 ist einziger Eigenvektor von C ν, also ρ(λ) = 1. Damit ist gezeigt, dass algebraische und geometrische Vielfachheit nicht übereinstimmen müssen. Lemma 7.3 Es gilt ρ(λ) σ(λ). Beweis: Sei ρ = ρ(λ) und x 1,...,x ρ seien die linear unabhängigen Eigenvektoren von A zu λ. Ergänze x 1,...,x ρ durch x ρ+1,...,x n zu einer Basis des n. Sei T = [x 1 x n ]. Für 1 i ρ gilt Te i = x i und damit T 1 x i = e i, also T 1 ATe i = T 1 Ax i = T 1 (λx i ) = λe i, 1 i ρ. Also gilt T 1 AT = λ λ 0 und damit det(t 1 AT µi) = (λ µ) ρ detr(µ). 7.2 Die Jordansche Normalform Es sei an die Definition des Jordan-Kästchens C ν (λ) in (7.1) erinnert. Satz 7.4 Sei A n n, λ 1,...,λ k seien die Eigenwerte von A mit geometrischen bzw. algebraischen Vielfachheiten ρ(λ i ) und σ(λ i ). Zu edem λ i gibt es Zahlen ν (i) 1,...,ν(i) ρ(λ i ) mit σ(λ i ) = ν (i) ν (i) ρ(λ i ) und eine reguläre Matrix T n n mit J = T 1 AT, C (1) ν (λ 1 ) C (1) ν (λ 1 ) ρ(λ J = 1 ) C (2) ν (λ 2 ) C ν (k) (λ k ) ρ(λ k ) J ist bis auf die Reihenfolge der Jordan-Kästchen eindeutig bestimmt. 64

3 Beweis: Den Beweis findet man in edem Lehrbuch der linearen Algebra. Entsprechend den Jordan-Kästchen partitionieren wir die Matrix T T = [ T (1) 1... T (1) T (2) 1... T (k) ρ(λ k )]. Wegen AT = TJ folgt Mit erhalten wir oder (A λ i I) [ t 1... t ν (i) ρ(λ 1 ) AT (i) = T (i) C (i) ν (λ i ). T (i) = [ t 1... ] t (i) ν ] = [ t1... t ν i ] = [ 0 t 1... ] t ν i (7.2) (A λ i I)t m = t m 1 für m = ν (i),...,2, (A λ i I)t 1 = 0. Mansagtauch:DieVektorent 1,...,t ν (i) bildeneinejordan-kette.t 1 isteineigenvektor,t 2,...,t ν (i) heißen Hauptvektoren. Die Spalten von T bestehen daher aus Eigen- und Hauptvektoren von A. Da T regulär ist, bilden die Eigen- und Hauptvektoren eine Basis des n. Die Eigenwerte hängen als Nullstellen eines Polynoms stetig von den Koeffizienten und damit auch von den Elementen der Matrix ab. Besitzt A ein Jordan-Kästchen der Länge ν > 1, so zerfällt dieses im Allgemeinen, wenn die Matrix gestört wird. Die Jordansche Normalform lässt sich daher numerisch nur schwer bestimmen. Eine Matrix heißt diagonalisierbar, wenn für alle Eigenwerte λ i gilt ρ(λ i ) = σ(λ i ). Wenn man dann mehrfache Eigenwerte auch mehrfach zählt, folgt wegen ν (i) = 1, J = λ λ n Anders ausgedrückt: Im diagonalisierbaren Fall gibt es eine Basis aus Eigenvektoren {x 1,...,x n } und die Matrix T hat die Gestalt T = [x 1... x n ] Die Schursche Normalform Wir nannten eine Matrix T unitär, wenn T H T = TT H = I. Sowohl die Zeilen als auch die Spalten einer solchen Matrix bilden eine Orthonormalbasis des n. Satz 7.5 Zu A n n gibt es eine unitäre Matrix U mit λ 1... U H AU = λ n wobei auf der Diagonale die nicht notwendig verschiedenen Eigenwerte von A stehen. 65

4 Beweis: durch vollständige Induktion über n. Für n = 1 ist u 11 = 1. Sei der Satz für alle Matrizen der Dimension n 1 richtig. Sei λ 1 ein Eigenwert von A mit Ax 1 = λx 1 und x 1 = 1. Ergänze x 1 durch x 2,...,x n zu einer Orthonormalbasis des n. Die Matrix X = [x 1... x n ] ist dann unitär mit X H AXe 1 = X H Ax 1 = X H (λx 1 ) = λ 1 e 1 oder [ ] X H λ1 a AX =. 0 A 1 Nach Induktionsvoraussetzung gibt es eine unitäre Matrix U 1 (n 1) (n 1) mit λ 2 U1 H A 1 U 1 = λ n Die Matrix [ 1 0 U = X 0 U 1 ist als Produkt zweier unitärer Matrizen unitär. Weiter gilt U H AU = [ U H 1 ] X H AX [ U 1 ] ] = λ λ n. 7.4 Hermitesche Matrizen Satz 7.6 Ist A n n hermitesch, so gibt es eine unitäre Matrix U = [x 1,...,x n ], deren Spalten aus Eigenvektoren besteht, mit λ 1 0 U 1 AU = U H AU = λ n mit reellen Eigenwerten λ 1,...,λ n. Damit ist A diagonalisierbar und die Eigenvektoren bilden eine Orthogonalbasis des n. Ordnet man die Eigenwerte so mit dem Rayleigh-Quotienten λ 1 λ 2... λ n, λ n = max x n \{0} R(x), λ 1 = min x n \{0} R(x), R(x) = (Ax,x) (x,x). Ist A reell und damit symmetrisch, so können die Eigenvektoren reell gewählt werden. 66

5 Beweis: Nach Satz 7.5 gibt es eine unitäre Matrix U, so dass U H AU eine rechte obere Dreiecksmatrix ist. Wegen A = A H gilt (U H AU) H = U H A H U = U H AU und U H AU = D ist eine reelle Diagonalmatrix. Aus AU = UD folgt, dass U aus den Eigenvektoren von A besteht und in D die zugehörigen Eigenwerte stehen. Wir normieren die Eigenvektoren x i zu x i = 1 und entwickeln x n x = α i x i. Wegen (x i,x ) = δ i gilt (Ax i,x ) = λ i δ i und (7.3) R(x) = n α i 2 λ i n α i 2 λ n n α i 2 n α i 2 = λ n. Andererseits gilt R(x n ) = λ n. Das Maximum des Rayleigh-Quotienten wir daher auf dem Eigenvektor x n angenommen. Korollar 7.7 Eine hermitesche Matrix ist genau dann positiv (semi)definit, wenn alle Eigenwerte von A positiv (nichtnegativ) sind. Dann gilt λ 1 x 2 (Ax,x) λ n x 2 für alle x n. Auch für die Eigenwerte λ 2,...,λ n 1 gibt es Charakterisierungen durch den Rayleigh-Quotienten: Satz 7.8 Sei A n n hermitesch mit Eigenwerten λ 1... λ n und zugehörigen Eigenvektoren x 1,...,x n. (a) (Rayleighsches Minimumprinzip) Mit ist E i = span{x 1,...,x i }, E 0 = {0}, λ i = min{r(x) : x E i 1, x 0} und das Minimum wird auf einem Vektor des Eigenraums von λ i angenommen. (b) (Minmax-Prinzip von Poincaré) Es gilt λ i = min max {R(x)} dim M=ix M\{0} und das Minimum wird auf M für i erste Eigenvektoren von A angenommen. (c) (Maxmin-Prinzip von Courant-Hilbert-Fischer) Es gilt λ i = max min{r(x) : x M, x 0} dimm i 1 und das Maximum wird auf M für i 1 erste Eigenvektoren von A angenommen. Bemerkung 7.9 Die etwas schwammig anmutende Formulierung, dass eine Extremum auf den ersten Eigenvektoren angenommen wird, ist der Tatsache geschuldet, dass im Falle mehrfacher Eigenvektoren die Extrema nicht eindeutig angenommen werden (siehe Beweis). 67

6 Beweis: (a) Ist x E i 1, so x = n =i α x und man schließt wie in (7.3), dass λ i das Minimum des Rayleigh-Quotienten über solche x ist. Ist λ i > λ i 1, so gilt für eden Eigenvektor x i zu λ i, dass λ i = R(x i ). Ist λ i = λ i 1, so orthogonalisieren wir einen Eigenvektor von λ i an die bereits gefundenen. Für diesen Eigenvektor x i gilt dann wieder λ i = R(x i ). (b) Sei M ein i-dimensionaler Teilraum des n. Aus Dimensionsgründen gibt es ein y M, y 0, mit y E i 1 = span{x 1,...,x i 1 }. Nach dem Rayleighschen Minimumprizip gilt dann R(y) λ i. Für M = span{x 1,...,x i } gilt max x M R(x) = R(x i ) = λ i. (c) Für i = 1 ist die Behauptung richtig, sei also i > 1. Wir setzen für Unterräume M mit dimm i 1 h(m) = min{r(x) : x 0, x M}. Nach dem Rayleighschen Minimumprinzip gilt h(e i 1 ) = λ i und damit max M h(m) λ i. Ist dimm i 1 und M E i 1, so gibt es einen Vektor y in E i 1 \{0} mit y M. Für diesen ist dann R(y) λ i 1. Im Gegensatz zum Rayleighschen Minimumprinzip lassen sich mit (b) und (c) Aussagen über höherer Eigenwerte treffen, ohne die niedrigen zu kennen. Beispiele 7.10 (i) Sind A,B Ê n n symmetrisch mit (Ax,x) (Bx,x) für alle x Ê n, so gilt nach (b) oder (c) λ i (A) λ i (B) für alle i = 1,...,n. (ii) Ist A Ê n n symmetrisch mit a i 0 und A 0, so ist der größte Eigenwert positiv und man kann den zugehörigen Eigenvektor nichtnegativ wählen. Wenn nämlich x ein Eigenvektor zum größten Eigenwert ist, so gilt für x = ( x 1,..., x n ), dass R(x) R( x). Ferner ist R(1,...,1) > 0, daher λ n > Eigenwertnäherung bei hermiteschen Matrizen Satz 7.11 Sei A n n hermitesch. Wenn für λ Ê und x n mit x = 1 gilt so gibt es einen Eigenwert λ i von A mit Ax λx ε, λ λ i ε. Beweis: Seien λ i Ê die Eigenwerte von A mit (x i,x ) = δ i. Da {x i } eine Basis bilden, gilt für x n mit x = 1 x = ( α i x i, 1 = x 2 = α i x i, i α x ) = α i 2 sowie ( Ax λx 2 = λ i α i x i λα i x i, i λ α x λα x ) = α i (λ i λ) 2 ε 2. Daher min λ λ 2 = min λ λ 2 α i 2 α i (λ i λ) 2 ε 2. Die numerische Berechnung der Eigenwerte einer hermiteschen Matrix ist daher ein gutartiger Algorithmus. 68

7 7.6 Normale Matrizen Eine Matrix A n n heißt normal, wenn AA H = A H A. Das wichtigste Beispiel für normale Matrizen sind unitäre Matrizen. Satz 7.12 Eine Matrix ist genau dann normal, wenn es eine unitäre Matrix U gibt mit λ 1 0 U 1 AU = U H AU = λ n Bemerkung 7.13 Normale Matrizen sind daher diagonalisierbar und besitzen orthogonale Eigenvektoren. Beweis: Sei A normal. Nach Satz 7.5 ist U H AU = R mit einer rechten oberen Dreiecksmatrix R. Dann Damit gilt RR H = U H AUU H A H U = U H AA H U = U H A H AU = (U H A H U)(U H AU) = R H R. (R H R) 11 = r 11 2 = (RR H ) 11 = r 1k 2, daher r 1k = 0 für k 2. Durch wiederholte Anwendung dieses Arguments erschließt man, dass R eine Diagonalmatrix ist. Sei nun umgekehrt U H AU = diag(λ 1,...,λ n ) = D. Dann gilt A = UDU H und mit D 2 = diag( λ 1 2,..., λ n 2 ) A H A = UD H U H UDU H = U D 2 U H = AA H. k=1 7.7 Singuläre Werte In diesem Abschnitt betrachten wir nicht notwendig quadratische Matrizen A m n. Die Matrizen A H A und AA H sind dann positiv semidefinit wegen Die Eigenwerte von A H A sind (A H Ax,x) = (Ax,Ax) = Ax 2 0. λ 1 λ 2... λ n 0. Wie in der Theorie der singulären Werte üblich, bezeichnen wir hier den kleinsten Eigenwert mit λ n. Lemma 7.14 Seien A,B m n. Dann besitzen AB H m m und B H A n n abgesehen von λ = 0 die gleichen Eigenwerte: σ(ab H )\{0} = σ(b H A)\{0}. Beweis: Für v 0 sei AB H v = λv mit λ 0. Dann ist B H v 0 und wegen (B H A)B H v = λb H v. auch Eigenvektor von B H A zum Eigenwert λ. Die andere Richtung zeigt man genauso mit dem Eigenwertproblem für B H A. 69

8 Wir schreiben λ k = σ 2 k mit σ k 0. Die Zahlen σ 1 σ 2... σ n 0 heißen singuläre Werte von A. Aufgrund des obigen Lemmas besitzen A H A und AA H die gleichen nichtverschwindenden singulären Werte. Für x = 1 ist Ax = R(x) mit dem Rayleighquotienten R zu A H A. Nach Satz 7.4 gilt dann Für m = n und A regulär folgt hieraus Ax σ 1 = A = max x n \{0} x, Ax σ n = min x n \{0} x. κ(a) = A A 1 = σ 1 σ n. Im Fall m = n gibt σ n den Abstand zur nächsten singulären Matrix an: Satz 7.15 Seien A,E n n. A besitze die singulären Werte σ 1... σ n 0. Dann gilt: (a) E σ n, falls A+E singulär. (b) Es gibt eine Matrix E mit E = σ n, so dass A+E singulär ist. Beweis: (a) Sei A+E singulär, also (A+E)x = 0 für x 0. Dann σ n x Ax = Ex E x. (b) Sei σ n > 0. Dann gibt es u,v n u = v = 1 mit Für E = σ n vu H gilt dann Wegen (a) folgt E = σ n. Au = σ n, v = 1 σ n Au. (A+E)u = Au σ n v(u H u) = Au σ n v = 0, E = σ n vu H = σ n max x =1 v(uh x) σ n v u = σ n. Satz 7.16 (Singulärwertzerlegung) Sei A m n. Dann gibt es eine unitäre m m-matrix U, eine unitäre n n-matrix V mit [ ] U H D 0 AV = Σ =, D = diag(σ 0 0 1,...,σ r ), wobei σ 1,...,σ r die nichtverschwindenden singulären Werte von A sind. A = UΣV H heißt Singulärwertzerlegung von A. 70

9 Beweis: Wir zeigen dies durch Induktion über m und n, d.h. wir nehmen für die Singulärwertzerlegung eines A m n an, dass die Singulärwertzerlegung für Matrizen B (m 1) (n 1) existiert. Zur Induktionsverankerung müssen wir daher den Fall A m 1 betrachten. Ist A = 0, so ist Σ = 0 und als U und V können wir beliebige unitäre Matrizen nehmen. Für A 0 wählen wir eine unitäre Matrix U m m mit erster Spalte A/ A, Σ = A e 1 m 1 sowie V = Dann gilt offenbar A = UΣV H. Den Fall A 1 n behandelt man ganz analog. Sei A m n. Wenn A = 0, so ist Σ = 0 und für U und V können wir wieder beliebige unitäre Matrizen wählen. Sei also A 0. Wegen A = max v =1 Av gibt es einen Vektor v mit v = 1 und Av = A = σ > 0. Ferner setze u = Av/ Av. Wir ergänzen v und u zu unitären Matrizen V = [v V 1 ] n n und U = [u U 1 ] m m. Dann gilt [ ] [ ] [ ] u H u H σ w H à = U H AV = [Av AV 1 ] = [σu AV 1 ] = 0 A 1 U H 1 mit w = V1 HAH u und A 1 = U1 HAV 1 (m 1) (n 1). Aus ( ) ( ) σ 2 σ 2 +w H w 2 à = (σ 2 + w 2 ) 2 w A 1 w folgt à 2 σ 2 + w 2. Andererseits ist und daher w = 0. Damit besitzt σ 2 = A 2 = ρ(a H A) = ρ(vãh U H UÃV H ) = ρ(ãh Ã) = à 2, à die Gestalt [ σ 0 0 A 1 Nach unserer Induktionsvoraussetzung existiert die Singulärwertzerlegung von A 1. Der Beweis zeigt auch, dass man zu einer reellen Matrix eine reelle Singulärwertzerlegung A = UΣV T bekommen kann mit orthogonalen Matrizen U und V. Ist A = UΣV H so folgt ] U H 1 A H = VΣ T U H. Die nichtverschwindenden singulären Werte von A und A H stimmen überein (vergleiche obiges Lemma). Aus dieser Darstellung der Singulärwertzerlegung von A H folgt auch A H A = VΣ T ΣV H, AA H = UΣΣ T U H. Damitbilden{v 1...,v n }bzw.{u 1,...,u m }OrthonormalsystemevonEigenvektorenvonA H Abzw. AA H. Beispiel 7.17 Wir bestimmen die Singulärwertzerlegung der Matrix ( ) A = Ê Um weniger rechnen zu müssen, bestimmen wir die Eigenwerte und Eigenvektoren der kleineren Matrix AA T Ê 2 2 ( ) 1 1 ( ) AA T 2 1 = 1 0 =

10 Die Eigenwerte sind λ 1 = 3 mit Eigenvektor x 1 = (1,1) T und λ 2 = 1 mit (1, 1) T. Entsprechend bekommen wir 1 1 ( ) A T A = 1 0 = Neben λ 1 = 3 und λ 2 = 1 gibt es hier noch den Eigenwert λ 3 = 0 mit Eigenvektoren λ 1 = 3 : y 1 = 1, λ 2 = 1 : y 2 = 1, λ 3 = 0 : y 3 = 1. 1 In A = UΣV H wird U aus den Eigenvektoren von AA T und V aus den Eigenvektoren von A T A gebildet. Daher ( )( ) 2/ 6 1/ 6 1/ 6 A = UΣV H = / 2 1/ 2 1/ 3 1/ 3 1/ Satz 7.18 Sei A = U H ΣV die Singulärwertzerlegung von A mit singulären Werten σ 1... σ r > σ r+1 =... = σ min{m,n} = 0 und Matrizen U = [u 1... u m ], V = [v 1... v n ], so ist (a) r der Rang von A, (b) Kern(A) = {x n : Ax = 0} = span{v r+1,...,v n }, (c) Bild(A) = {Ax : x n } = span{u 1,...,u r }, (d) A = r σ i u i v H i = U r Σ r V H r mit U r = [u 1... u r ], V r = [v 1... v r ], Σ r = diag(σ 1,...,σ r ), (e) A 2 = m =1 a i 2 = r σi. 2 Beweis: (a) Die Multiplikation mit den regulären Matrizen U H und V ändern den Rang von A nicht, daher RangA =RangΣ = r. (b) Wegen V H v i = e i ist Also gilt Av i = UΣV H v i = UΣe i = 0 für i = r +1,...,n. v r+1,...,v n Kern(A). Da dim Kern(A) = n r bilden diese Vektoren eine Basis von Kern(A). (c) Wegen A = UΣV H ist Bild(A) = U Bild(Σ) = U span{e 1,...,e r } = span{u 1,...,u r }. (d) Durch Ausmultiplizieren erhalten wir A = UΣV H = [u 1... u m ]Σ 72 v H 1. v H n = r σ i u i vi H.

11 (e) Mit A = [a 1... a n ] erhalten wir wegen Ux = x A 2 = a i 2 = U H a i 2 = U H A 2. Mit den Zeilen von U H A kann man genauso argumentieren, daher A 2 = U H AV 2 = Σ 2 = r σi Spektralradius und induzierte Matrizennormen Satz 7.19 Sei V eine Vektornorm auf n und V V die induzierte Matrix-Norm. Dann gilt für A n n λ A V V für alle Eigenwerte λ von A. Beweis: Aus Ax = λx folgt Ax V = λ x V und λ Ax V x V A V V. Wir erinnern daran, dass wir mit ρ(a) = max i λ i den Spektralradius der Matrix A bezeichnen. Nach dem letzten Satz gilt daher ρ(a) A V V. Es muss nicht unbedingt eine induzierte Matrixnorm mit ρ(a) = A V V geben. Als Beispiel wählen wir für A das Jordan-Kästchen J 2 (0) 2 2. Es gilt ρ(j 2 (0)) = 0, aber es ist J 2 (0) 0. Das folgende Resultat ist daher nicht zu verbessern. Satz 7.20 Zu eder Matrix A n n und edem ε > 0 gibt es eine Vektornorm V mit A V V = ρ(a)+ε. Beweis: Nach Jordan gibt es eine reguläre Matrix T mit TAT 1 = J = diag(j ν i (λ i )) mit Sei D ε = diag(1,ε,ε 2,...,ε ν 1 ). Dann λ J ν (λ) =. =: λi +E λ D 1 ε J ν (λ)d ε = D 1 ε (λi +E)D ε = λi +D 1 ε ED ε. Mit ε ε ED ε = = ε ν ε ν

12 folgt Also können wir äquivalent schreiben 0 ε 0 Dε ED ε =... ε 0 0 (7.4) TA T 1 = J, wobei die Jordan-Kästchen von J in der Nebendiagonalen ε statt 1 stehen haben. Ist S n n regulär, so ist eine Vektornorm mit induzierter Matrixnorm x S = Sx Ax S SAx A S S = sup = sup x 0 x S x 0 Sx SAS 1 x = sup = SAS 1. x 0 x Mit (7.4) folgt daher A T T = J ρ(a)+ε. 7.9 Der Rayleigh-Quotient bei allgemeinen Matrizen Satz 7.21 (Hausdorff, Bendixson) Sei A n n und R(x) = (Ax,x) (x,x) der Rayleigh-Quotient zu A. Ferner bezeichne G(A) den Wertebereich von R(x) für x n. Dann gilt: (a) G(A) ist konvex und enthält die Eigenwerte von A. (b) Ist A normal, so ist G(A) die konvexe Hülle der Eigenwerte von A. (c) Mit H 1 = 1 2 (A+AH ), H 2 = 1 2i (A AH ) sind H 1,H 2 hermitesch mit A = H 1 +ih 2. Für eden Eigenwert λ von A gilt dann Beweis: (a) Für Ax = λx, x 0, ist λ min (H 1 ) Reλ λ max (H 1 ), λ min (H 2 ) Imλ λ max (H 2 ). (7.5) R(x) = (Ax,x) (x,x) = λ. Die Konvexität von G(A) benötigen wir im Folgenden nicht. Auf den schwierigen Beweis soll daher verzichtet werden. 74

13 (b) Für eine normale Matrix haben wir die Darstellung A = U H DU mit einer unitären Matrix U und einer Diagonalmatrix D = diag(λ 1,...,λ n ). Dann { } { } (DUx,Ux) (Dy,y) G(A) = : x 0 = : y 0. (Ux,Ux) (y,y) Der Wertebereich von G(A) besteht daher genau aus der konvexen Hülle der Eigenwerte. (c) Wegen (7.5) folgt (Ax,x) Reλ maxre x 0 (x,x) = maxre x 0 = max x 0 ((A+A H )x,x) 2(x, x) = max x 0 Für den Imaginärteil beweist man das ganz genauso. i a ix x i (x,x) (H 1 x,x) (x,x). = max x 0 (Ax,x)+(x,Ax) 2(x, x) 7.10 Gerschgorin-Kreise Lemma 7.22 Seien A,B n n und λ sei Eigenwert von A, aber nicht von B. Dann gilt für ede induzierte Matrixnorm 1 (λi B) 1 (A B) (λi B) 1 A B. folgt Beweis: Aus und damit (A B)x = (λi B)x x = (λi B) 1 (A B)x x V (λi B) 1 (A B) x V. Wir wenden das Lemma an auf die Vektornorm x = max 1 i n x i mit der Zeilensummennorm als zugehöriger Matrixnorm, Ax A = A = sup = max x 0 x 1 i n Mit B = diag(a 11,...,a nn ) erhalten wir aus dem letzten Lemma Damit haben wir gezeigt: 1 (λi B) 1 1 (A B) = max 1 i n λ a ii Satz 7.23 (Gerschgorin) Die Vereinigung der Kreissscheiben K i = { µ : µ a ii enthält alle Eigenwerte der Matrix A n n. k=1, k i a ik. k=1 k=1, k i } a ik Zusatz Wenn k =1 K i eine Zusammenhangskomponente von i K i bildet, so liegen in dieser genau k Eigenwerte. 75 a ik.

14 Beweis: Schreibe A = D +R mit D diagonal und R ii = 0. In A(t) = D +tr, t [0,1], hängen die Eigenwerte von A(t) stetig von t ab. Sie können daher k =1 K i (t) nicht verlassen. Man kann die Gerschgorin-Kreise auch auf A T anwenden. Demnach liegen die Eigenwerte auch in den Kreisen um a ii mit einem Radius, der aus den Elementen der i-ten Spalte gebildet wird. Eine andere Möglichkeit besteht in der Anwendung der Gerschgorin-Kreise auf D 1 AD mit einer Diagonalmatrix D = diag(d 1,...,d n ), K i = {µ : µ a ii a ik d k d i }. k=1, k i In edem Fall erhält man vernünftige Abschätzungen nur für Matrizen mit großen Diagonalelementen. Beispiel 7.24 A n n heißt (strikt) diagonaldominant, wenn a ik < a ii für 1 i n. k=1, k i Nach dem Satz von Gerschgorin ist eine diagonaldominante Matrix regulär Abschätzungen von Nullstellen von Polynomen Zum Polynom p(λ) = a n λ n +a n 1 λ n a 0, a n 0, gehört die Frobeniusmatrix 0 γ F = , γ i = a i, a... n γ n 1 denn wenn wir det(f λi) nach der letzten Spalte entwickeln, erhalten wir det(f λi) = 1 a n ( 1) n p(λ). Damit können alle Eigenwertabschätzungen für die Abschätzung von Nullstellen von Polynomen herangezogen werden. Der Satz von Gerschgorin angewendet auf F oder F H liefert beispielsweise { a ( 0, (a) λ k max max 1+ a )} i, a n 1 i n 1 a n { (b) λ k max 1, n 1 a } i. a n i=0 Beispiel 7.25 Für das Polynom p(λ) = λ 3 6λ 2 +11λ 6 erhalten wir (a) max{6,1+ a i } = 12, (b) max{1,23} = 23. Die Nullstellen sind λ 1,2,3 = 1,2,3. 76

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

4 Eigenwerte und Eigenvektoren

4 Eigenwerte und Eigenvektoren 4 Eigenwerte und Eigenvektoren Sei V {0} ein K Vektorraum und f : V V K linear. Definition: Ein Eigenwert von f ist ein Element λ K, für die es einen Vektor v 0 in V gibt, so dass f(v) = λ v. Sei nun λ

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

MATTHIAS GERDTS NUMERISCHE MATHEMATIK II. Universität Würzburg SoSe 2010

MATTHIAS GERDTS NUMERISCHE MATHEMATIK II. Universität Würzburg SoSe 2010 MATTHIAS GERDTS NUMERISCHE MATHEMATIK II Universität Würzburg SoSe 010 Addresse des Authors: Matthias Gerdts Institut für Mathematik Universität Würzburg Am Hubland 97074 Würzburg E-Mail: gerdts@mathematik.uni-wuerzburg.de

Mehr

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra Theoretische Fragen zu ausgewählten Themen in Lineare Algebra { Oren Halvani, Jonathan Weinberger } TU Darmstadt 25. Juni 2009 Inhaltsverzeichnis 1 Determinanten................................................

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,

Mehr

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops 15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den

Mehr

Eigenwertaufgaben. Heinrich Voss. Hamburg University of Technology Department of Mathematics. Eigenwertaufgaben p.

Eigenwertaufgaben. Heinrich Voss. Hamburg University of Technology Department of Mathematics. Eigenwertaufgaben p. Eigenwertaufgaben Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Department of Mathematics Eigenwertaufgaben p. 1/163 Einleitung Kleine Bewegungen eines Systems mit endlich vielen Freiheitsgraden

Mehr

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von 1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von Wachstumsraten Bestimmung von Maximal- und Minimalwerten von

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Singulärwert-Zerlegung

Singulärwert-Zerlegung Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Tutorium 7. Definition. Sei V ein C-Vektorraum. Eine Abbildung, : V V C heißt komplexes Skalarprodukt : det F k > 0 mit F k := (f i,j ) C k k

Tutorium 7. Definition. Sei V ein C-Vektorraum. Eine Abbildung, : V V C heißt komplexes Skalarprodukt : det F k > 0 mit F k := (f i,j ) C k k Skalarprodukte Tutorium 7 Bemerkung. Für jeden komplexen Vektorraum V mit dim V und jede komplexe Bilinearform P auf V findet man einen Vektor v mit P (v, v) =. Es gibt also keine positiv definite Bilinearformen

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Klausur Lineare Algebra I & II

Klausur Lineare Algebra I & II Prof. Dr. G. Felder, Dr. Thomas Willwacher ETH Zürich, Sommer 2010 D MATH, D PHYS, D CHAB Klausur Lineare Algebra I & II Bitte ausfüllen! Name: Vorname: Studiengang: Bitte nicht ausfüllen! Aufgabe Punkte

Mehr

Übungen zu Lineare Algebra und Geometrie für LAK

Übungen zu Lineare Algebra und Geometrie für LAK Übungen zu Lineare Algebra und Geometrie für LAK Andreas Cap Wintersemester 2010/11 Wiederholung grundlegender Begriffe (1) Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Klausur HM I H 2005 HM I : 1

Klausur HM I H 2005 HM I : 1 Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1 Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =

Mehr

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a). Aufgabe Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = Es gilt det(λa = (λ n det(a det I n = n? Nein (außer für n = Es gilt deti n = det(ab = det A det B? Ja det(a =

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Lineare Algebra II 12. Übungsblatt

Lineare Algebra II 12. Übungsblatt Lineare Algebra II 12. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 13. / 14. Juli 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Probeklausur) Sprechen Sie über die Probeklausur

Mehr

(a) Bestimmen Sie die Matrixdarstellung dieser Abbildung bzgl. einer möglichst einfachen Basis von P n - (b) Bestimmen Sie die zu F duale Abbildung F.

(a) Bestimmen Sie die Matrixdarstellung dieser Abbildung bzgl. einer möglichst einfachen Basis von P n - (b) Bestimmen Sie die zu F duale Abbildung F. Übung. Wiederholen Sie die folgenden Begriffe und geben sie jeweils Beispiele (a) Vektorraum (b) Vektorraumhomomorphismus mit Spezialfällen (c) Basis (d) Dualraum (e) Duale Basis (f) Koordinatenabbildung

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

Kapitel 11. Bilinearformen über beliebigen Bilinearformen Kapitel 11 Bilinearformen über beliebigen Körpern Wir können in diesem Kapitel rasch vorgehen, weil die meisten Konzepte im Zusammenhang mit Sesquilinearformen bereits eingeführt wurden. In diesem Abschnitt

Mehr

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit

Mehr

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich

Mehr

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik Universität Karlsruhe (TH) Institut für Algebra und Geometrie Dr. Klaus Spitzmüller Dipl.-Inform. Wolfgang Globke Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik Lösungen zum

Mehr

y = A(x) y + b(x). (1) y = A(x) y (2)

y = A(x) y + b(x). (1) y = A(x) y (2) 73 5.2 Lineare Systeme Sei weiterhin IK = C oder IK = IR. Seien = I IR ein offenes Intervall, x 0 I, y 0 IK n, A: I IK n n und b: I IK n stetige matrix- bzw vektorwertige Funktionen. Wir betrachten komplexe

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

5. Übung zur Linearen Algebra II -

5. Übung zur Linearen Algebra II - 5. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 2. Aufgabe 7 5 A := 2. 3 2 (i) Berechne die Eigenwerte und Eigenvektoren von A. (ii) Ist A diagonalisierbar?

Mehr

Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen

Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen Orthogonale und unitäre Endomorphismen Wir untersuchen nun lineare Abbildungen in euklidischen und unitären Vektorräumen

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

Diagonalisieren. Nikolai Nowaczyk  Lars Wallenborn Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum, 2 Vektorräume In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa Unterraum, Linearkombination, lineare Unabhängigkeit und Erzeugendensystem.

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014 Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................

Mehr

Kapitel 18. Aufgaben. Verständnisfragen

Kapitel 18. Aufgaben. Verständnisfragen Kapitel 8 Aufgaben Verständnisfragen Aufgabe 8 Gegeben ist ein Eigenvektor v zum Eigenwert λ einer Matrix A (a) Ist v auch Eigenvektor von A? Zu welchem Eigenwert? (b) Wenn A zudem invertierbar ist, ist

Mehr

Lineare Algebra - Zusammenfassung

Lineare Algebra - Zusammenfassung Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung Eine Zusammenfassung basierend auf dem Skript Lineare Algebra für Ingenieure von Prof. H. Knörer und Lineare Algebra

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Mathematik für Informatiker II

Mathematik für Informatiker II Universität Bielefeld SS 26 Fakultät für Mathematik HD W. Hoh Mathematik für Informatiker II Lineare Algebra TEXed by Christian Munier Marc Paffen Florian Sprengel Christian Thöns Eyla Willing Inhaltsverzeichnis

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

A x = λ x. Eigenwertaufgabe. Vorlesung Mai Mai Eigenwertaufgaben 1. Motivation 1: Schwingungen. Motivation 1: Schwingungen

A x = λ x. Eigenwertaufgabe. Vorlesung Mai Mai Eigenwertaufgaben 1. Motivation 1: Schwingungen. Motivation 1: Schwingungen Eigenwertaufgabe Vorlesung 6 Mai + 3 Mai Eigenwertaufgaben A x = λ x Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 3 / 79 Mackens (Technische Universität Hamburg-Harburg) Lineare

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

Klausurähnliche Aufgaben

Klausurähnliche Aufgaben Sommersemester 2007/08 Lineare Algebra Klausurähnliche Aufgaben Aufgabe 1 Seien v 1, v 2, v 3, v 4, v 5, v 6 die Vektoren in R 5 mit v 1 = (1, 2, 3, 1, 2), v 2 = (2, 4, 6, 2, 4), v 3 = ( 1, 1, 3, 0, 3),

Mehr

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten Einheitsmatrix Die quadratische Einheitsmatrix I n M n,n ist definiert durch I n = 1 0 0 0 1 0 0 0 1 (Auf der Hauptdiagonalen stehen Einsen, außerhalb Nullen Durch Ausmultiplizieren sieht man I n A = A

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind

Mehr

Von Skalarprodukten induzierte Normen

Von Skalarprodukten induzierte Normen Von Skalarprodukten induzierte Normen Niklas Angleitner 4. Dezember 2011 Sei ein Skalarproduktraum X,, gegeben, daher ein Vektorraum X über C bzw. R mit einer positiv definiten Sesquilinearform,. Wie aus

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 8 (SS 2011) Abgabetermin: Donnerstag, 9. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 8 (SS 2011) Abgabetermin: Donnerstag, 9. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 8 (SS 2011) Abgabetermin: Donnerstag, 9. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Hermitesche

Mehr

Seminar Einführung in die Kunst mathematischer Ungleichungen

Seminar Einführung in die Kunst mathematischer Ungleichungen Seminar Einführung in die Kunst mathematischer Ungleichungen Geometrie und die Summe von Quadraten Clara Brünn 25. April 2016 Inhaltsverzeichnis 1 Einleitung 2 1.1 Geometrie allgemein.................................

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Fachbereich Mathematik der Universität Hamburg WiSe / Dr Hanna Peywand Kiani 722 Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Lineare Differentialgleichungssysteme,

Mehr

2 Normen und Konditionszahl. 3 Innere Produkte. 2.3 Konditionszahl (S. 12) 2.1 Vektornorm (S. 8) 2.2 Matrixnorm (S. 9) Lineare Algebra 2. Definition.

2 Normen und Konditionszahl. 3 Innere Produkte. 2.3 Konditionszahl (S. 12) 2.1 Vektornorm (S. 8) 2.2 Matrixnorm (S. 9) Lineare Algebra 2. Definition. 1 Matrizen 11 Matrixoperationen Adjungierte Matrix A = A t Spur tr A (A + B) = A + B (αa) = αa (AB) = B A (A ) = A tr(a + B) = tr(b + A) tr(ab) = tr(ba) tr(a) = tr(a t ) tr(b 1 AB) = tr(a), falls B regulär

Mehr

Klausurvorbereitungsblatt Lineare Algebra

Klausurvorbereitungsblatt Lineare Algebra Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen

Mehr