Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind.

Größe: px
Ab Seite anzeigen:

Download "Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind."

Transkript

1 1 Lineare Algebra Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind. 1.1 Vektorräume (VRe) Definition Ein Vektorraum (VR) über einem Zahlkörper K(= R, C) ist eine Menge V mit Addition + (kommutativ + assoziativ) und Skalarmultiplikation, mit i) ex. 0 V : v V : v + 0 = v, ii) v V : 0 v = 0, 1 v = v für 0, 1 K, iii) (inverses Element): v V ex. v V : v + ( v) = 0, iv) α K : v, w V : α(v + w) = αv + αw, α, β K : v V : (α + β) v = αv + βv, v) α, β K, v V : (αβ)v = α(βv). Beispiel 1.1. Beispiele für Vektorräume, die wir später wiederholt verwenden werden, sind: V = R n, V = C n, V = P n := { p n (x) = n k=0 V = C p ([a, b]). a k x k }, Sei [a, b] R beschränktes Intervall, und x 0, x 1,..., x n Stützstellen mit a = x 0 < x 1 < < x n = b. Dann ist V n = { f C 0 ([a, b]) f [xi 1,x i ] ist linear } ein Vektorraum, der Raum der stückweise linearen, stetigen Funktionen in [a, b]. Definition W V heisst Teilraum (TR) W ist VR über K. 1

2 Beispiel a) Sei [a, b] R beschränktes Intervall, und x 0, x 1,..., x n Stützstellen mit a = x 0 < x 1 < < x n = b. Dann gilt: V n = { f C 0 ([a, b]) f [xi 1,x i ] ist linear } ist ein Teilraum von C 0 ([a, b]). b) Polynome vom Grad n sind ein Teilraum der stetigen Funktionen, d.h. P n C 0 (R). c) Sei v 1,..., v n V beliebig. Dann gilt W := span{v 1,..., v n } := {v = α 1 v α n v n : α i K} ist TR von V. Wir nennen v 1,..., v n erzeugendes System des TR W von V. Direkte Summe von TR: Seien W 1,..., W m W Teilräume. Dann folgt S := {w : w = v v m mit v i W i : i = 1,..., m} ist Teilraum. S heisst direkte Summe der W i, symbolisch S = W 1 W m, genau dann, wenn gilt s S ex.! v 1,..., v m mit v i W i ; s = v v m. Definition i) {v 1,..., v m } V heissen linear unabhängig α 1 v α m v m = 0 α 1,..., α m = 0. ii) Sei V = span{u 1,..., u m } und die u i linear unabhängig. Dann heisst {u 1,..., u m } Basis von V m = dim V. Beispiel i) Für den Vektorraum P n der Polynome von Grad n auf dem Intervall [a, b] gilt P n = span{x 0, x 1,..., x n }. ii) Für V n = {f C 0 ([a, b]) t [xi 1,x i ] ist linear}, a = x 0 < x 1 < < x n = b gilt V n = span{b i (x) : i = 0, 1,..., n}, wobei die Basis b i (x) die Hutfunktionen sind: in der folgenden Figur für n = 5 dargestellt: fig1.eps 15 4 mm x 0 x 1 x x 3 x 4 x 5

3 1. Matrizen Sei m, n N. mn Zahlen a ij K, i = 1,..., m, j = 1,..., n bilden eine Matrix mit m Zeilen und n Spalten, eine m n Matrix, a a 1m A =... (1..1) a m1... a mm Falls a ij R schreiben wir A R m n und analog, falls a ij C schreiben wir A C m n. Wir benutzen die Bezeichnungen: A = A(m n): Spaltenvektor a a 1n Zeilenvektor. matrix1.1.eps mm a m1.... a mn Diagonale Definition 1..1 Sei A eine m n Matrix, und i p, j q Indizes mit 1 i 1 < < i k m, 1 j 1 < < j l n. S = (S pq ) = (a ip,j q ), p = 1,..., k, q = 1,..., l, heisst Untermatrix von A. Definition 1.. A(m n) Blockmatrix, falls A A 1l A =.., A k1... A kl mit A ij Untermatrizen von A der Grössen m i n j mit m 1 + +m k = m, n 1 + +n l = n. Beispiel 1..3 m = n = 3, k = l =, m 1 = n 1 =, m = n = 1; 1 3 ( ) A11 A = 1. A 1 A

4 Notation 1..4 (MATLAB-Notation) Bei einem Vektor a R n bezeichnet in Matlab- Notation a(i) die Komponente a i. Die Notation a(k : l) ist für l k Kurzform für den Vektor der Länge l k + 1 mit den Komponenten k bis l des Vektors a. Analoge Notationen gelten für Matrizen: Die Einträge a nm einer Matrix A sind in MATLAB Notation A(n, m), und der Ausdruck A(k : l, r : s) bezeichnet die Untermatrix von A, aus den Zeilen k bis l und den Spalten r bis s besteht. Für einen Vektor a R n mit n Komponenten gilt length (a) = n. Untermatrix von A: Symbolisch schreiben wir für A(i 1 : i, j 1 : j ) i 1 i j 1 j Analog ist für Vektoren v K n : v(i 1 : i ) Teilvektor von v; symbolisch: A(m n) = (a 1,..., a n ), wobei a i K m Spaltenvektoren der Matrix A sind. i 1 i. 1.3 Matrixoperationen Wir rekapitulieren die wichtigsten Matrixoperationen. Definition Eine quadratische Matrix A = A(n n) heisst invertierbar B = B(n n), dass AB = BA = I. Wir schreiben B Inverse von A, B = A 1 (n n). Es gilt A singulär A nicht invertierbar. Proposition 1.3. Die Inverse A 1 (n n) von A = (a 1,..., a n ) existiert die Spalten a 1,..., a n sind linear unabhängig. Definition Sei A = A(m n) = (a ij ) R m n. Dann ist A = A (n m) = (a ji ) R n m Transponierte von A. Wir geben einige Rechenregeln für die Transponierte einer Matrix A. 4

5 Proposition (A ) = A, (A + B) = A + B, (AB) = B A, (αa) = αa α K. A 1 ex. = (A ) 1 ex. und (A ) 1 = (A 1 ) = A. Für Matrizen mit komplexen Einträgen ist oft die komplex konjugierte transponierte Matrix von Interesse, die sog. hermitesch Transponierte. Definition Sei A = (a ij ) C m n. Dann ist B = A H := A = (a ji ) die hermitesch Transponierte zu A. Beispiel A C n m, B C m n. Dann gilt: Definition (AB) H = B H A H, (αa) H = α A H, α C. A R n n symmetrisch A = A, schiefsymmetrisch A = A, orthogonal A 1 = A A A = AA = I. Definition A C n n hermitesch A = A A H = A, unitär A H A = AA H = I. Definition A C n n normal AA H = A H A. 1.4 Spur und Determinante Sei A = A(n n) eine quadratische Matrix. Dann heisst tr(a) := n a ii die Spur von A. Aus der linearen Algebra erinnern wir an die Determinante von A: det(a) = π P sgn(π) a 1π1... a nπn. Sie erfüllt folgende Rechenregeln. det(a) = det(a ), det(ab) = det(a) det(b), det(a 1 ) = 1/det(A) det(a) = det(a H ), det(αa) = α n det(a) α K. 5

6 1.5 Rang und Kern Definition A = A(m n) hat rang q, wenn die grösste Blockuntermatrix A mit det Ã(q, q) 0 die Grösse q hat. Wir schreiben: q = rank(a). A = A(m n) hat maximalen Rang rank A = min(m, n). Ã(q q) von Eigenschaft 1.5. Für A(m n) gilt rank A = dim ( range(a) ) wo range(a) := {y K m : y = Ax, x K n }. Eigenschaft ker A = {x K n : Ax = 0 K m } heisst Kern von A, Nullraum von A. Es gilt: rank(a) = rank(a ), rank(a) = rank(a H ), rank(a) + dim ( ker(a) ) = n. Eigenschaft A nichtsingulär det(a) 0 ker A = {0} rank(a) = n A = {a 1,..., a n } linear unabhängig. 1.6 Spezielle Matrizen A = A(m n) obere Trapezmatrix a ij = 0 for i > j untere Trapezmatrix a ij = 0 for i < j m = n = obere oder Links-Dreiecksmatrix a ij = 0 for i > j untere oder Rechts-Dreiecksmatrix a ij = 0 for i < j. Beispiel (Dreiecksmatrizen) Dreiecksmatrizen schreiben wir symbolisch als l L =.... 0, U = l n1... l nn u u 1n u nn = 0 beispiel1.eps mm = 0 6

7 Proposition 1.6. Sei L eine untere Dreiecksmatrix, U obere Dreiecksmatrix. Dann gilt det L = L L nn = n L ii, det U = U U nn = n U ii. Definition Die Menge der n n-linksdreiecksmatrizen wird mit L n bezeichnet. Ferner definieren wir L 1 n := {L L n L ii = 1, i = 1,..., n}. Die Linksdreiecksmatrizen und Rechtsdreiecksmatrizen bilden je einen Ring: Theorem Es gilt für beliebige L, L L n : 1. L + L L n ;. L L L n ; symbolisch: 0 0 beispiel.eps = 0, mm0 0 = 0 3. det L = n L ii; 4. Ist L L n regulär, dann ist L 1 L n ; 5. falls L L 1 n, L L 1 n, dann ist L L L 1 n. Analoge Aussagen gelten für Rechtsdreiecksmatrizen. Beweis: Übung (vgl. Aufgabe 1). Die Aussagen für Rechtsdreiecksmatrizen folgen aus denen für Linksdreiecksmatrizen durch Transposition. Definition ) A C m n (p, q)-bandmatrix, wenn U ij = 0 für i > j + p, j > i + q. p + 1 q beispiel3.eps 48 6 mm 0 p + 1 ) p = q = 1: A-Tridiagonalmatrix. 3) p = m 1, q = 1: A untere Hessenbergmatrix. 7

8 1.7 Eigenwerte und Eigenvektoren Sei A C n n quadratische Matrix. Dann ist: λ C Eigenwert von A 0 x C n : Ax = λx. Die Menge σ(a) = {λ C : λ Eigenwert von A} heisst Spektrum von A. x y Rechtseigenvektor von A Linkseigenvektor von A Ax = λx, y H A = λy H. λ σ(a) erfüllt die charakteristische Gleichung p A (λ) := det(a λi) = 0. Proposition ) A C n n = p A (λ) P n = σ(a) = {λ 1,..., λ n }, und ) det(a) = p A (0) = λ 1 λ... λ n, tr(a) = n λ i. 3) σ(a) = σ(a ), σ(a H ) = σ(a), d.h. λ σ(a) λ σ(a H ) Der Spektralradius von A C n n ist Für den Spektralradius gilt (nachrechnen!) ρ(a) = max λ i = max λ. 1 i n λ σ(a) ρ(a) = ρ(a H ), ρ(a k ) = ( ρ(a) )k, k N. 1.8 Ähnlichkeitstransformationen Ähnlichkeitstransformationen lassen das Spektrum einer Matrix invariant. In der Numerik werden Ähnlichkeitstransformationen benutzt, um Eigen- und Singulärwerte und, allgemeiner, die Schur Normalform sowie die Singulärwertzerlegung der Matrix A stabil zu berechnen. Definition Seien A(n n), C(n n) Matrizen mit det C 0. Dann heisst die transformierte Matrix C 1 AC ähnlich zu A. Proposition 1.8. σ(a) = σ(c 1 AC), p A (λ) = p C 1 AC(λ). 8

9 Beweis: P C 1 AC = det(c 1 AC λ C} 1 {{ C} ) I = det(c 1 (A λi) C) = det(c 1 ) det(a λi) det(c) = det(c 1 ) 1 det(a λi) det(c) = P A (λ). 1.9 Schur und Jordan Normalform Wir rekapitulieren den folgenden Satz aus der linearen Algebra: Jede Matrix A(n n) kann ähnlich auf die sog. Jordan sche Normalform transformiert werden. A C n n hat n Eigenwerte λ 1,..., λ n. Diese sind Nullstellen des charakteristischen Polynoms p(λ) = det(a λ 1). Algebraische Vielfachheit von λ i = Vielfachheit der Nullstelle λ i von p(λ): p(λ) = (λ λ i ) malg i q(λ), Ordnung q(λ) = n m alg i. Geometrische Vielfachheit von λ i = m geom i := # linear unabhängige Eigenvektoren zum Eigenwert λ i. Es gilt: m alg i. m geom i Defekt: d i := m alg i m geom i 0. 9

10 Jordan Normalform: T C n n nicht singulär, λ λ λ λ λ 1 0 λ T A T = λ λ λ λ λ = J wobei: λ λ λ pro Eigenvektor je 1 Jordanblock.... auftritt. Seine Grösse hängt 0 0 λ λ 1 ab von der Länge der Hauptvektorketten. λ i sind in den verschiedenen Jordanblöcken sind nicht notwendig verschieden, die Jordan sche Normalform ist praktisch schlecht zu berechnen, da die Transformationsmatrix T in der Jordan schen Normalform nicht -isometrisch ist: es gibt x C n : T x x. In der Numerik verlangt man deshalb weniger als die Jordan sche Normalform und fordert: T! = unitär. Dies wird bezahlt damit, dass die transformierte Normalform der Matrix weniger Nulleinträge hat. Genauer gilt: Theorem (Schur) A C n n beliebig, λ 1,..., λ n C Eigenwerte von A. Dann existiert eine unitäre Matrix Q C n n so, dass λ 1 Q H A Q =... = Λ 0 λ n 10

11 wobei Λ eine obere Dreiecksmatrix ist mit den Eigenwerten von A auf der Diagonalen. Beweis: Sei u 1 Eigenvektor zu λ 1, u 1 = 1. Wähle u,..., u n C n so, dass V 1 = (u 1,..., u n ) unitär. Dann gilt, mit A 0 = A, λ 1... V H 1 A 0 0 V 1 =.. A 1 Wiederhole Schlussweise mit A 1 C (n 1) (n 1) : V = Ṽ 0, Ṽ = (ũ,..., ũ n ) C (n 1) (n 1). Rekursion mit Ṽ3,..., Ṽn ergibt die Behauptung Normen in C n Sei V VR über dem Koeffizientenkörper K = R, C. Dann ist die Abbildung : V R + eine Norm x V : x 0 und x = 0 x = 0. x V, α K : αx = α x. x, y V : x + y x + y. (N1) (N) (N3) Bemerkung x y x y. Beweis: (N3) x y = x y + y y x y + y y = x y ; x y = Behauptung. 11

12 Beispiele: V C n, p 1, x = (x 1,..., x n ). Dann sind die sog. l p -Vektornormen p für 1 p wie folgt definiert. ( n x p := x i p ) 1 p, 1 p <, x = max{ x i : i = 1,..., n}. Der wichtige Spezialfall p = ist die Euklidische Vektornorm. Theorem p ist Norm auf C n. Beweis: (N1), (N) sind offensichtlich, wir zeigen (N3). Hierzu brauchen wir Lemma Seien Indices p, q 1 konjugiert, d.h. es gelte Dann gilt Beweis: x log x konkav, d.h. 1 p + 1 q = 1. a, b > 0 : ab ap p + bq q. Dann: α, β 0, α + β = 1 : u, v > 0 : α log u + β log v log(αu + βv) : α = 1 p, β = 1 q, u = ap, v = b q. ( 1 log(ab) = log a + log b = α log(a p ) + β log(b q ) log p ap + 1 ) q bq. Theorem (Hölder Ungleichung) Seien p, q 1 konjugiert, x, y C n. Dann gilt n x i y i x p y q. Beweis: x = 0 y = 0 trivial. Seien x 0, y 0. Setze x = x / x p, ŷ = y / y p. Lemma = n 1 x i y i x i p x i ŷ i 1 p + ŷ i q q, i = 1,..., n, p x p + 1 p p ŷ q q = 1. Wir können nun (N3) für die p -Vektornorm zeigen. 1

13 Theorem (Minkowski Ungleichung) Sei p 1, x, y C n. Dann x + y p x p + y p. Beweis: x + y p p = n Hölder x i + y i p n x i + y i p 1( x i + y i ) ( n ( xi + y i p 1) ) q 1 q ( ) x p + y p = x + y p/q p ( ) x p + y p = x + y p 1 ( ) x p + y p, p da (p 1) q = p, 1 q = (p 1)/p = 1 1 p Normäquivalenz Es ist aus der Analysis bekannt, dass alle Normen auf endlichdimensionalen Räumen äquivalent sind, insbesondere sind also alle p -Vektornormen auf C n äquivalent. In der Numerik sind wir insbesondere an der Dimensionsabhängigkeit der Äquivalenzkonstanten zwischen verschiedenen Vektornormen interessiert. Definition p, q auf V äquivalent ex. 0 < c pq C pq < mit c pq x q x p C pq x q x V. In der Numerik brauchen wir für den Vektorraum V = C n die Werte der Äquivalenzkonstanten in Abhängigkeit von der Dimension n. Beispiel V = C n. c pq q = 1 q = q = p = p = n p = n 1 n 1 1 C pq q = 1 q = q = p = 1 1 n 1 n p = 1 1 n 1 p = Tab. 1: Äquivalenzkonstanten für die wichtigsten Normen von R n. 13

14 1.1 Matrixnormen Analog zur Länge eines Vektors messen wir auch die Grösse von Matrizen durch Normen, die sog. Matrixnormen. Matrixnormen sind wichtig, um z.b. mathematische Aussagen über Fehler, die in Matrizen durch numerische Operationen eingeführt werden, abzuschätzen. Definition (Matrixnorm) Es bezeichne M eine Norm auf einem Vektorraum von Matrizen, eine sog. Matrixnorm. M : C m n R ist eine Matrixnorm, falls sie die Normeigenschaften erfüllt: A M 0 A M = 0 A = 0, (N1) αa M = α A M α C, A C m n, (N) A + B M A M + B M A, B C m n. (N3) Definition 1.1. Eine Matrixnorm M auf C m n heisst konsistent oder verträglich mit Vektornorm V Ax M A M x V x C n. Beispiel Die Frobeniusnorm in C n n ist definiert durch ( n A F = i,j=1 a ij ) 1 = tr (AA H ) 1. F ist konsistent mit der Euklidischen Vektornorm : Ax = ( x H A H, Ax ) = n n a ij x j j=1 n ( n n ) a ij x j = A F x. j=1 Allgemeiner gilt: Zu jedem Paar, von Vektornormen auf C n resp. C m lassen sich zu diesen Normen konsistente Matrixnormen wie folgt definieren. Sei dazu Vektornorm auf C m, Vektornorm auf C n. Für A C m n ist j=1 A := sup x 0 A x x = max x 0 A x x eine Operatornorm auf C m n, die durch, induzierte Norm. Die Operatornorm ist mit diesen Vektornormen konsistent, d.h. es gilt x C n : A x A x, 14

15 Beispiel p - Matrixnormen Sei 1 p. Dann ist die zur p Vektornorm konsistente Matrixnorm definiert durch A p := max x 0 A x p x p. Übung: zeige dass hierdurch die p - Matrixnorm wohldefiniert ist (warum wird das Maximum max in der Definition angenommen?). Eine wichtige Eigenschaft von Matrixnormen ist die Submultiplikativität. Definition M submultiplikativ A C n m, B C m q : A B M A M B M. Die meisten, aber nicht alle (cf. QSS1, p. 3 für ein Gegenbeispiel) Matrixnormen sind submultiplikativ. Beispiel Submultiplikativität der p - Matrixnormen Sei wieder 1 p. Dann ist die zur p Vektornorm konsistente Matrixnorm submultiplikativ: A B p = max x 0 Bx 0 ABx p Bx p Bx p x p max x 0 Bx 0 ABx p Bx p max x 0 Bx p x p A p B p. Proposition Die Frobeniusnorm F ist submultiplikativ. Beweis: Sei A = (a 1,..., a n ) C m n, B = b 1. C n k. Dann hat das Matrixprodukt AB folgende Darstellung als Summe von Rang-1 Matrizen, die durch Multiplikation von Spaltenvektoren von A mit Zeilenvektoren von B gewonnen werden. b n A B = a 1 b a n b n. 15

16 Dreiecksungleichung: A B F a 1 b 1 F + + a n b n F = a 1 b a n b n ( n ) 1 ( n ai ) 1 bi = A F B F. Wichtige Spezialfälle der p-matrixnormen sind: A 1 = A = max j=1,...,n max,...,n m n j=1 a ij Spaltensummenorm a ij Zeilensummennorm A 1 = A H, A = A H = A 1 = A. Die Norm einer Matrix A C m n steht in engem Zusammenhang mit dem Spektralradius ρ(a). Theorem Es gilt A = ρ(a H A) = ρ(aa H ) = λ max (A H A). Bemerkung Folgende Spezialfälle treten häufig auf: A = A H = A = ρ(a), A H A = I = A = Skalarprodukt und Orthogonalität Definition Sei V ein Vektorraum über K. Eine Bilinearform (, ) : V V K heisst Skalarprodukt, falls gilt: x, y, z V, γ, λ K : (γx + λy, z) = γ(x, z) + λ(y, z), (S1) (y, x) = (x, y) (S) (x, x) > 0 für alle x 0. (S3) 16

17 Beispiel V = C n : (x, y) = y H x = Es gilt Q, A C n n n x i y i. x, y C n : (Ax, y) = (x, A H y) (Qx, Qy) = (x, Q H Qy). Die für die Numerik wichtigste Eigenschaft unitärer Matrizen ist, dass sie die Euklidische Norm eines Vektors x invariant lassen. Beispiel Es gilt für Q C n n unitär und alle A C n n QA F = A F, denn QA F = tr ( (QA)(QA) H) 1 = tr(qaa H Q H ) 1 = A F. Proposition Q C n n unitär, d.h. Q H Q = I. Dann gilt: Qx = x x C n. Beweis: Qx = (x, QH Qx) = (x, x) = x. Definition Sei V C n Unterraum. Dann bezeichnet V = {y C n : y x für alle x V } das orthogonale Komplement von V. schreiben symbolisch: Es gilt: x, y C n orthogonal x H y = 0 und wir x y Gram-Schmidt Algorithmus Orthogonalbasen von Vektoren Seien r 1 Vektoren x 1,..., x r C m gegeben. Der Gram-Schmidt Algorithmus erzeugt aus diesen Vektoren eine neue Familie von r Vektoren q 1,..., q r C m derart, dass gilt und die q i sind paarweise orthogonal: Der Gram-Schmidt Algorithmus ist definiert wie folgt: span{x 1,..., x r } = span{q 1,..., q r } (1.14.1) q i q j für 1 i, j r, i j. (1.14.) 17

18 Algorithmus (Gram-Schmidt) input x 1,..., x r C n. q 1 := x 1, for k = 1,..., r 1 do: q k+1 := x k+1 k (q i, x k+1 ) (q i, q i ) q i. Eigenschaften der q k verifiziert man direkt. Etwa (1.14.) durch Induktion: sei (1.14.) schon für 1 i, j k bewiesen. Dann folgt für l k aus Algorithmus , dass gilt woraus (1.14.) für k + 1 folgt. (q l, q k+1 ) = (q l, x k+1 ) k (q i, x k+1 ) (q i, q i ) = (q l, x k+1 ) (q l, x k+1 ) (q l, q l ) (q l, q i ) }{{} δ li (q l, q l ) = 0, In Algorithmus waren r, m beliebig. Für r > m ergeben (1.14.1) und (1.14.), dass einige der q i verschwinden müssen. Genauer gilt: Proposition Falls die x i vollen Rang r haben, gilt (1.14.1) mit q 1,..., q r 0. Falls jedoch s = dim(span{x 1,..., x r }) < r ist, so sind r s > 0 Vektoren der q 1,..., q r gleich 0. Als eine Anwendung des Gram-Schmidt Algorithmus erhalten wir das Basisergänzungslemma: Lemma Sei r < n. Falls V 1 = [v 1,..., v r ] C n r orthonormale Spalten hat, d.h. v H i v j = δ ij, dann existiert V C n (n r) derart, dass die Matrix V = [ ] V 1 V unitär ist, d.h. V H V = 1, und (rangev 1 ) = rangev. Beweis des Basisergänzungslemmas Es besagt: falls die Matrix V 1 = [v 1,..., v t ] C n t, t < n, orthonormale Spalten hat mit v H i v j = δ ij, dann existieren v t+1,..., v n derart, dass die Matrix V = [V 1 V ], wo V := [v t+1,..., v n ] unitär ist, d.h. V H V = 1, und (range V 1 ) = range V. Für den Beweis wenden wir den Gram-Schmidt Algorithmus an auf die r Vektoren {x 1,..., x r } = {v 1,..., v t, e 1,..., e n }, 18

19 wobei r = n + t ist. Gram-Schmidt reproduziert dann die v 1,..., v t (beweisen!) und ergibt weitere n Vektoren q 1,..., q n mit (q i, q j ) = δ ij, (v i, q j ) = 0, 1 i t, 1 j n. Da dim(span{x 1,..., x r }) = n > t ist, sind n t Vektoren der q i 0 und t der q i verschwinden. Eine Anwendung der Normen und der Orthogonalität ist der Beweis der sogenannten Singulärwertzerlegung Singulärwertzerlegung (SVD) Die SVD einer (nicht notwendig quadratischen!) Matrix A ergibt totale Information über Matrix A, und ist, anders als die Jordan Normalform, stabil berechenbar (MATLAB Befehl svd ). Theorem Sei A C m n, r = rang(a) min{m, n}. Dann existieren reelle Singulärwerte σ 1 σ σ r > 0, U C n n, V C m m, unitär mit A = V Σ U H (1.15.1) wo σ σ Σ = r. R m n Beweis von Theorem Der Beweis ist eine Anwendung der Eigenschaften von Normen sowie von Orthogonalität. Seien x C n, y C m Vektoren mit x = y = 1, und σ R mit A x = σ y, wobei σ = A. Nach Lemma existiert U C n (n 1), V C m (m 1) derart, dass die Matrizen U = [ x U ] C n n, V = [ y V ] C m m unitär sind. Weiterhin gilt V H A U = [ y V ] H A [ x U ] = y H A x y H A U V H A x V H A U =: σ 0 B w H =: A 1. 19

20 Da (nachrechnen!) gilt auch ( ) σ A 1 w A1 = sup 0 x C n σ + w H w = B w A1 x x = (σ + w H w) + B w (σ + w H w), ( ) σ A 1 w σ w (σ + w H w) σ + w H w = σ + w H w. (1.15.) Da auch σ = A = V H A U = A 1, folgt aus (1.15.), dass gilt Also ist A1 A1 + wh w woraus folgt 0 w H w 0, d.h. w = 0. A 1 = σ 0 B 0 = V H 0 A 0 U 0. Rekursion dieser Schlussweise auf B = Behauptung. Korollar Die Singulärwerte σ 1,..., σ r sind eindeutig. Korollar Falls σ 1 > σ > > σ r, sind die Singulärvektoren u 1,..., u r, v 1,..., v r eindeutig bis auf einen Faktor λ mit λ = 1. Bild und Kern einer Matrix A C m n können durch die singulären Vektoren charakterisiert werden: Korollar Sei A C m n, r min{m, n} der Rang von A. Dann gilt: { σi v i 1 i r, A u i = 0 r + 1 i n. A H v i = { σi u i 1 i r, 0 r + 1 i m. Korollar A = r σ i v i u H i. 0

21 Korollar Sei A C m n, A = V Σ U H. Dann ker A = span{u r+1,..., u n }, range A = span{v 1,..., v r }, ker A H = span{v r+1,..., v m }, range A H = span{u 1,..., u r }. Korollar σ i (A) = λ i (A H A), i = 1,..., p Beweis: A = V Σ U H = A H = U Σ H V H = A H A = U Σ H V}{{ H V} Σ U H = I λ i (A H A) = Σ H Σ = ( σ i (A) ). Also gilt für A hermitesch: A H = A = A H A = A σ i = λ i = λ i, i = 1,..., n. σ 1 σ σ r > σ r+1 = = σ p = 0 = r = rank(a), ker(a) = span{v r+1,..., v n }, range(a) = span{u 1,..., u r }. Definition Sei A = V Σ U H C m n. Dann ist Σ = V H AU = diag(σ 1,..., σ r, 0,..., 0). Die Matrix A + := U Σ + V H C n m mit 1 Σ + = diag(,..., 1 ), 0,..., 0 σ 1 σ r heisst Moore Penrose Pseudoinverse von A Hauptachsentransformation Eine wichtige Folgerung aus der Singulärwertzerlegung ist der folgende Satz, der gewissermassen eine symmetrische Variante der SVD ist, nämlich die in der Physik oft benutzte Hauptachsentransformation (bzw. Diagonalisierung) symmetrischer Operatoren. Theorem A C n n normal Q C n n unitär, so dass Λ = Q H AQ diagonal ist. 1

22 Beweis: = Q H AQ = Σ diagonal = A = QΣ Q H = A H A = QΣ H Q H Q }{{} ΣQ H = QΣ H ΣQ H (1.16.3) I n und AA H = QΣ Q H Q }{{} Σ H Q H = QΣΣ H Q H. (1.16.4) I n Aber Σ = diag(λ 1,..., λ n ) = Σ H = diag(λ 1,..., λ n ) { Σ H Σ = diag( λ 1,..., λ n ) = ΣΣ H = diag( λ 1,..., λ n ) } = Σ H Σ = ΣΣ H (1.16.5) (1.16.3), (1.16.4), (1.16.5) = A H A = AA H = A normal. = Es sei A = V ΣU H die SVD von A. A H = UΣ H V H und damit gilt A H A = UΣ H } V {{ H V} ΣU H = UΣ H ΣU H I n AA H = V Σ U H U }{{} I n Σ H V H = V Σ H ΣV H. (1.16.6) Aber Σ H Σ = ΣΣ H = diag( λ 1,..., λ n ) =: Θ (wie oben). A normal and (1.16.6) = V ΘV H = UΘU H, und wegen der Eindeutigkeit der SVD folgt U = V. Damit ist A = UΣU H = Σ = U H AU und die Aussage gilt mit Q = U. Die Matrix Λ enthält genau die n rellen Eigenwerte der unitären Matrix A und die Spalten q i der Matrix Q bilden eine orthonormale Basis des C n aus Eigenvektoren von A.

Computergestützte Mathematik zur Linearen Algebra

Computergestützte Mathematik zur Linearen Algebra Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Numerische Methoden. ETH Zürich SS 2006

Numerische Methoden. ETH Zürich SS 2006 Numerische Methoden ETH Zürich SS 2006 Inhalt Lineare Algebra Vektorräume (VRe) 2 Matrizen 2 3 Matrixoperationen 3 4 Spur und Determinante 5 5 Rang und Kern 5 6 Spezielle Matrizen 6 7 Eigenwerte und Eigenvektoren

Mehr

Sommer 2017 Musterlösung

Sommer 2017 Musterlösung Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2

Mehr

Komplexe Lineare Algebra. Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems

Komplexe Lineare Algebra. Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems Determinante und Inverse Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems Ax = b R m, x R n, A R mn hängt sehr stark vom sogenannten Rang der m n Matrix A ab Diese

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche, Fakultät für Mathematik PD Dr Markus Perling Heinrich Heine-Universität Düsseldorf Sommersemester 2014 Lineare Algebra 1 Vierzehnte & Fünfzehnte Woche, 1672014 10 Determinanten (Schluß) Das folgende Resultat

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Lineare Algebra II (NAWI) SS2014 Übungsblatt 1

Lineare Algebra II (NAWI) SS2014 Übungsblatt 1 Lineare Algebra II (NAWI) SS2014 Übungsblatt 1 Aufgabe 1. Welche der folgenden Abbildungen sind Sesquilinearformen oder Bilinearformen? Welche davon sind Skalarprodukte? (a) B 1 : R R R, (x, y) xy (b)

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 14. Übung: Woche vom (Lin.Alg.

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 14. Übung: Woche vom (Lin.Alg. Übungsaufgaben 14. Übung: Woche vom 30. 1.-3. 2. 2017 (Lin.Alg. III): Heft Ü 3: 3.2.6.a,b,l,n; 3.2.12; 3.2.13; 5.4.1; 5.4.5.c; Hinweis 1: 3. Test (Integration, analyt. Geom.) ist seit 9.1. freigeschalten

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Lösungsskizze zur Wiederholungsserie

Lösungsskizze zur Wiederholungsserie Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y. Determinanten Motivation: Man betrachte das lineare Gleichungssystem [ [ [ a b x u = (1) c d y v Sei obda a und c Dann ist (1) äquivalent zu [ [ ca cb x = ac ad y und ferner zu [ [ ca cb x ad cb y Falls

Mehr

Basisprüfung. 18. August 2015

Basisprüfung. 18. August 2015 Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v

Mehr

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit 4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit Definition 4.41. Eine Familie F linearer Operatoren heißt vertauschbar oder kommutierend, wenn für je zwei Operatoren U,T in F gilt: UT = TU.

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr

Lösung 13: Unitäre Vektorräume und normale Abbildungen

Lösung 13: Unitäre Vektorräume und normale Abbildungen D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

Lineare Algebra 2. Lösung zu Aufgabe 7.2: Technische Universität Dortmund Sommersemester 2017 Fakultät für Mathematik Übungsblatt 7 Prof. Dr. Detlev Hoffmann 15. Juni 2017 Marco Sobiech/ Nico Lorenz Lineare Algebra 2 Lösung zu Aufgabe 7.1: (a)

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Fallstudien der mathematischen Modellbildung Teil 3: Quanten-Operationen. 0 i = i 0

Fallstudien der mathematischen Modellbildung Teil 3: Quanten-Operationen. 0 i = i 0 Übungsblatt 1 Aufgabe 1: Pauli-Matrizen Die folgenden Matrizen sind die Pauli-Matrizen, gegeben in der Basis 0, 1. [ [ [ 0 1 0 i 1 0 σ 1 = σ 1 0 = σ i 0 3 = 0 1 1. Zeigen Sie, dass die Pauli-Matrizen hermitesch

Mehr

Wiederholungsserie II

Wiederholungsserie II Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095

Mehr

6 Die Schursche Normalform und einige Klassen von Matrizen

6 Die Schursche Normalform und einige Klassen von Matrizen ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen

Mehr

Numerische Methoden. Vorlesungsskript zur Veranstaltung Numerische Methoden gehalten von Daniel Kressner im FS 2008 an der ETH Zürich.

Numerische Methoden. Vorlesungsskript zur Veranstaltung Numerische Methoden gehalten von Daniel Kressner im FS 2008 an der ETH Zürich. Numerische Methoden Vorlesungsskript zur Veranstaltung Numerische Methoden gehalten von Daniel Kressner im FS 8 an der ETH Zürich 3 Juni 8 Dieses Skript basiert teilweise auf dem Vorlesungsskript der von

Mehr

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld Clicker Fragen Frage 1 Wenn eine reelle Matrix einen Eigenvektor hat, so hat es unendlich viele Eigenvektoren Sei u K n einen Eigenvektor von A M

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 2011 Olga Holtz MA 378 Sprechstunde Fr 14-16 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 12-14 und nv jokar@mathtu-berlinde Kapitel

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Pseudoinverse Matrizen

Pseudoinverse Matrizen Miniaturen zur Einführung in die Mathematik Vertiefungen, Ergänzungen und zusätzliche interessante Aspekte für Hörsaalanleitungen oder schlicht als Lektüreangebot 09 Pseudoinverse Matrizen Moore-Penrose-Inverse

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Lineare Algebra I - Prüfung Winter 2019

Lineare Algebra I - Prüfung Winter 2019 Lineare Algebra I - Prüfung Winter 209. (20 Punkte) Kreuzen Sie auf dem Abgabeblatt ihre Antwort an. Pro Teilaufgabe ist genau eine der vier Antwortmöglichkeiten richtig. Für jede richtig beantwortete

Mehr

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie: Aufgabe I (4 Punkte Gegeben seien die Matrix und die Menge Zeigen Sie: H := L := {A R 4 4 A HA = H} a L ist bezüglich der Matrizenmultiplikation eine Gruppe b Die Matrizen der Form ( E O, O B wobei E R

Mehr

Lineare Algebra II (SS 13)

Lineare Algebra II (SS 13) Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana.

Lineare Algebra. 13. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg.

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg. Übungsaufgaben 13. Übung: Woche vom 23. 1.-27. 1. 2017 (Lin.Alg. II): Heft Ü 3: 1.1.3; 1.1.7 (a,b); 1.1.8; 1.1.11; 3.4.3 (b); 1.3.3 (c); 1.2.3 (b,d); Hinweis 1: 3. Test (Integration, analyt. Geom.) ist

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT

ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT G.FELDER, LINEARE ALGEBRA II, FS 2013 27.03.2013 Inhaltsverzeichnis 1. Selbstadjungierte Abbildungen 1 1.1. Adjungierte Abbildungen 1 1.2. Spektralsatz

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr

Ferienkurs Lineare Algebra

Ferienkurs Lineare Algebra Ferienkurs Lineare Algebra Wintersemester 9/ Lösungen Eigenwerte und Diagonalsierbarkeit Blatt Diagonalisierbarkeit. Zeigen sie, dass für eine diagonalisierbare Matrix A folgendes gilt: det(a) = wobei

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,

Mehr

Lösung Lineare Algebra II Sommer 2018

Lösung Lineare Algebra II Sommer 2018 Lösung Lineare Algebra II Sommer 2018 1. (25 Punkte) Kreuzen Sie direkt auf dem Abgabeblatt an, ob die Behauptungen WAHR oder ALSCH sind. Sie müssen Ihre Antworten nicht begründen! Bewertung: 1 Punkt für

Mehr

Analytische Geometrie

Analytische Geometrie 21 Vorlesungen über Analytische Geometrie für Lehramtstudierende der Schulformen Grund-, Mittel- und Realschule Jens Jordan Universität Würzburg, Wintersemster 2015/16 Hier kommt noch ein schönes Bildchen

Mehr

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- 1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,

Mehr

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning Karlsruher Institut für Technologie (KIT) WS 22/3 Institut für Analysis 28..23 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik I für die Fachrichtung Physik 4. Übungsblatt (letztes Blatt)

Mehr