HM II Tutorium 7. Lucas Kunz. 5. Juni 2018
|
|
- Alfred Fiedler
- vor 5 Jahren
- Abrufe
Transkript
1 HM II Tutorium 7 Lucas Kunz 5. Juni 2018 Inhaltsverzeichnis 1 Theorie Orthogonalität und Orthonormalbasen Orthogonalraum Projektoren Orthogonalprojektor Gram-Schmidt-Verfahren Elementargeometrische Erklärung Alternative Formulierung Eigenwertgleichung Charakteristisches Polynom und Vielfachheiten Diagonalisierbarkeit Theorie über das Tutorium hinaus Konjugierte, Transponierte und Adjungierte Matritzen Orthogonale und Unitäre Matrizen Eigenwerte von Diagonal- und Dreiecksmatritzen Eigenwerte von linearen Abbildungen Ähnlichkeit von Matrizen Symmetrische und Hermitesche Matrizen Spektralsatz für hermitesche Matrizen Normale Matritzen Definitheit Alternative Bestimmung Alternative Bestimmung Alternative Bestimmung Aufgaben Aufgabe 39 b)
2 1 Theorie 1.1 Orthogonalität und Orthonormalbasen Sei V ein Skalarproduktraum, dann sind die Vektoren v 1, v 2,..., v n orthogonal, falls (v i v k ) = 0, i k. Solche orthogonalen Vektoren sind stets linear unabhängig voneinander. Beweis. Seien v 1 und v 2 orthogonal und nicht der Nullvektor, also (v 1 v 2 ) = (v 2 v 1 ) = 0. Um also aus einer Linearkombination der beiden Vektoren den Nullvektor zu erhalten, müssen die Koeffizienten wie folgt gewählt werden: a 1 v 1 + a 2 v 2 = a 1 (v 1 v 1 ) + a 2 (v 1 v 2 ) = a 1 (v 1 v 1 ) = 0 a 1 v 1 + a 2 v 2 = a 1 (v 2 v 1 ) + a 2 (v 2 v 2 ) = a 2 (v 2 v 2 ) = 0. Da (v v) = 0 v = 0 gilt sind also alle beiden Koeffizienten als 0 zu wählen, sofern nicht einer der Vektoren der Nullvektor ist. Der Nullvektor (als einzige Ausnahme) ist nach der Definition orthogonal zu allen anderen Vektoren, jedoch auch linear abhängig mit allen. Eine Menge aus paarweise orthogonalen Vektoren heißt Orthogonalsystem. Haben diese Vektoren weiterhin alle die Norm 1, so bezeichnet man es als Orthonormalsystem. Ein solches System, dessen lineare Hülle der ganze Vektorraum ist, bezeichnet man als Orthonormalbasis. Anhand der Definition einer Basis wissen wir, dass wir jedes Element eines n-dimensionalen Vektorraumes darstellen können als n v = α i w i wenn {w 1, w 2,..., w n } eine Basis von V ist. Für den Fall, dass dies eine Orthonormalbasis darstellt, lässt sich für die Koordinaten bezüglich der Basis α i außerdem sagen, dass α i = (v w i ). Entsprechend gilt für jedes Element v V n v = (v w i ) w i. (1.1) 1.2 Orthogonalraum Der Orthogonalraum zu einer Menge an Vektoren ist die Menge der Vektoren aus dem selben Vektorraum, die allesamt orthogonal zu allen Vektoren der ersten Menge stehen. Ist z. B. der gewählte Vektorraum der R 3 und die betrachtete Menge eine Ebene darin, so ist deren Orthogonalraum die Menge ihrer Normalenvektoren. Definiert ist dieser Raum für eine Teilmenge M des Vektorraums V also wie folgt: Weiterhin gilt die Gleichheit M := {v V v w w M}. (1.2) Bild(A) = Kern(A ). (1.3) Da weiterhin gilt, dass (M ) = M, folgt aus Gleichung 1.3 durch beidseitiges Bilden des Orthogonalraumes auch Bild(A) = Kern(A ). (1.4) 2
3 1.3 Projektoren Eine Lineare Abbildung auf einem Vektorraum V, für die gilt, dass P 2 (v) := P (P (v)) = P (v) v V heißt Projektor (oder idempotente Abbildung). Der einfachste solche Projektor ist die Identitätsabbildung I, die alle Elemente des Vektorraums auf sich selbst abbildet. Ist P ein Projektor, so ist auch Q := I P ein Projektor und es gilt: Bild P = {v V P (v) = v} Kern P = Bild Q V = Bild P Kern P. Hierbei ist U W die sogenannte direkte Summe zweier Untervektorräume von V, die dich nur im Nullpunkt schneiden, also U W = {0}. Es gilt daher U W = {u + w u U, w W }. Klar ist weiterhin: U W U W. Gilt für zwei Untervektorräume U, W V, dass U W = {0} und ist dim U + dim W = dim V, so gilt V = U W. Die dritte der obigen Eigenschaften lässt sich also mit dem Rangsatz (Tutorium 2 Kapitel 3.2) zeigen: dim Bild P + dim Kern P = dim V. 1.4 Orthogonalprojektor Ist U ein l-dimensionaler Untervektorraum von V, l n und {u 1, u 2,..., u l } eine Orthonormalbasis von U, dann ist l u = (v u i )u i mit v V, u U der sogenannte Orthogonalprojektor von V auf U. Dieser hat die Eigenschaft, dass u der Vektor in U ist, der den geringsten Abstand zu v hat, dass also der Differenzvektor v u orthogonal auf U steht. Es gilt (v u z) = 0 z U v u U mit dem Orthogonalraum von U: U := {v V (v z) = 0 z U}. Wendet man diesen Projektor auf ein Element aus U an, so wird dieses auf sich selbst abgebildet. In besagtem Fall ist nämlich die Abbildung gleich der Darstellung des Vektors mittels der gewählten Basis, also l u = (u u i )u i. Die mehrfache Hintereinanderausführung auf ein Element in V hat also die selbe Auswirkung wie die einfache Ausführung, was genau die Definition eines Projektors ist. 3
4 1.5 Gram-Schmidt-Verfahren Dieses Verfahren ermöglicht es, aus der Kenntnis einer beliebigen Basis eines Vektorraums eine Orthonormalbasis des selben zu erstellen, die die obigen Eigenschaften aufweist. Sei hierzu V ein Skalarproduktraum und {v 1, v 2,..., v n } eine Basis dessen, dann erhält man eine Orthogonalbasis aus ebenfalls n Vektoren, indem man sagt, dass c 1 := v 1 (1.5) c n := v n n 1 (v n c i ) c i 2 c i. (1.6) In dem Fall, dass die Norm durch das Skalarprodukt induziert ist, also die Parallelogrammgleichung (siehe Tutorium 1 Gleichung 1.7) erfüllt wird, ist c i 2 = (c i c i ). Um eine Normierung dieser Basis zu erhalten wählt man weiterhin b i := c i c i. (1.7) Mit Hilfe dieses Verfahrens kann man immer eine Orthonormalbasis finden, jedoch ist dies manchmal auch einfacher durch logische Überlegungen möglich oder durch Verwendung der euklidischen Standardbasis (e x, e y, e z ; e r, e ϑ, e ϕ ;...) Elementargeometrische Erklärung Um zu Beweisen, dass das Gram-Schmidt-Verfahren funktioniert, muss man nur mit beliebigen Vektoren eine Nachrechnung anstellen und wird dabei merken, das das Skalarprodukt je zweier Elemente des entstehenden Systems verschwindet. Dies allerdings ist reine mathematische Formalität und bietet wenig Anschauung zur Bedeutung von Orthogonalität. Letztere soll im Folgenden vermittelt werden. Bereits aus der gymnasialen Oberstufe bekannt sein sollte die Formel cos α = (v 1 v 2 ) v 1 v 2. (1.8) Diese lässt sich leicht mittels Abbildung 1 (a) verdeutlichen. Wir wählen o.b.d.a. das Koordinatensystem so, dass die beiden betrachteten Vektoren in der x-y-ebene liegen und v 1 genau in x-richtung zeigt. Es gilt in diesem Fall also v 1 = Dementsprechend folgt ( v1 0 ) und v 2 = ( ) k m mit v 2 2 = k 2 + m 2. (v 1 v 2 ) = v 1 k + 0 m = v 1 k. Man sieht schließlich an einem rechtwinkligen Dreieck, dass cos α = k v 2 = 1 v 2 (v 1 v 2 ) v 1. Betrachten wir nun zwei Vektoren v 1 und v 2 wie in Abbildung 1 (b), die um einen Winkel α zueinander verdreht sind. v 2 lässt sich zerlegen in eine zu v 1 parallele Komponente 4
5 (in der Skizze grün, genannt v 3 ) und eine orthogonale (in der Skizze blau, genannt v 4 ). Letztere ergibt sich als v 4 = v 2 v 3. Nun nutzen wir Trigonometrie und formen weiter um zu cos α = v 3 v 2 v 1 v 3 = (v 1 v 2 ) v 1 v 2 Für den orthogonalen Anteil ergibt sich also v 3 = v 1 v 1 (v 1 v 2 ) = v 1 (v 1 v 2 ) v 1 v }{{} 1. 2 v 3 v 4 = v 2 v 1 (v 1 v 2 ) v 1 2, was genau der selben Rechnung wie in Gleichung 1.6 für den Fall n = 2 entspricht. Die Rechenvorschrift für das Gram-Schmidt-Verfahren basiert also nur darauf, dass man von einem Vektor alle zu anderen Vektoren parallelen Komponenten entfernt und auf diese Weise ein Orthogonalsystem erhält (welches man in den meisten Fällen anschließend normiert). v 2 y v 3. v 1 m x. α v 2 α v 1 v 4 k (a) Cosinus und Skalarprodukt. (b) Orthogonale Vektoren Abbildung 1: Skizzen zu Gram-Schmidt Alternative Formulierung Statt erst nach Erstellen eines Orthogonalsystems die Normierung durchzuführen, kann man dies auch direkt mit jedem Vektor c n machen, bevor man c n+1 errechnet. Man spart sich dadurch insbesondere etwas Schreibarbeit. Für diese Vorgehensweise lautet die Rekursionsformel b 1 := v 1 (1.9) v 1 n 1 c n := v n (v n b i ) b i ; b n = c n c n. (1.10) Die in der Summe auftretenden Vektoren (v n b i ) b i sind dabei jeweils die zu b i parallelen Bestandteile des Vektors v n, also die Projektion von v n auf b i. 5
6 1.6 Eigenwertgleichung Sei A C n n und λ C, dann heißt λ ein Eigenwert von A, wenn ein x C n \ {0} existiert, das die Gleichung Ax = λx erfüllt. In diesem Fall heißt x ein Eigenvektor von A zum Eigenwert λ. Die Menge aller Eigenvektoren zu einem Eigenwert nennt sich ihr Eigenraum, E A (λ) = {x C n Ax = λx}. Der Nullvektor ist dabei Element jedes Eigenraums, gilt jedoch selbst nie als Eigenvektor. 1.7 Charakteristisches Polynom und Vielfachheiten Durch Umformen der Eigenwertgleichung erhält man Ax = λx Ax = λix (A λi)x = 0. (1.11) Entsprechend erhält man die Eigenräume durch Lösung dieses homogenen Gleichungssystems, also mittels E A (λ) = Kern (A λi). (1.12) Damit dieses System nichttriviale (von 0 verschiedene) Lösungen hat, muss die Determinante von (A λi) verschwinden. Die Eigenwerte selbst erhält man also aus p A (λ) := det(a λi) = 0. (1.13) Dies nennt man das charakteristische Polynom der Matrix A. Die Vielfachheit einer Nullstelle dieses Polynoms nennt man algebraische Vielfachheit (alg. Vfh.) des Eigenwerts. Die Summe der algebraischen Vielfachheiten aller Eigenwerte einer Matrix aus dem C n n ist immer n. Die Dimension des zum Wert gehörigen Eigenraumes (Anzahl der notwendigen Basisvektoren) wird als geometrische Vielfachheit (geom. Vfh.) bezeichnet. Grundsätzlich gilt für jeden Eigenwert 1 geom. Vfh.(λ) alg. Vfh.(λ) n. (1.14) Eine weitere wichtige Eigenschaft von Eigenräumen ist, dass Eigenvektoren von unterschiedlichen Eigenwerten linear unabhängig sind. 1.8 Diagonalisierbarkeit Eine Matrix heißt diagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix ist. Die Diagonalelemente letzterer Matrix entsprechen in diesem Fall den Eigenwerten der ursprünglichen Matrix. Es existiert also ein invertierbares S, sodass D = diag(λ 1,..., λ n ) := λ λ n = S 1 A S. (1.15) Ist dieses S orthogonal (S 1 = S T ) oder unitär (S 1 = S ), was bedeutet, dass die Spalten von S in R n oder C n ein Orthonormalsystem bilden, so nennt man A orthogonal bzw. unitär diagonalisierbar. Diagonalisierbarkeit ist gleichbedeutend damit, dass für alle Eigenwerte von A die algebraische und geometrische Vielfachheit übereinstimmt. Eine Matrix S mit dieser speziellen Eigenschaft erhält man, wenn man die Eigenvektoren von A als Spalten in eine Matrix schreibt. Die Eigenwerte treten dann in D in der Reihenfolge auf wie die zugehörigen Eigenvektoren in S. Diese Eigenvektoren bilden dann eine Basis des C n (weil sie ja bekanntlich linear unabhängig sind). 6
7 2 Theorie über das Tutorium hinaus 2.1 Konjugierte, Transponierte und Adjungierte Matritzen Sei A K n m eine Matrix, dann gibt es eine transponierte Matrix A T K m n, für die gilt: (A T ) ij = A ji. (2.1) Die Transponierte ist also quasi die Spiegelung der Matrix an der Hauptdiagonalen. Eine solche Transponierung ist auch mit Vektoren möglich, da diese im Grunde auch nur Matritzen mit m = 1 (Spaltenvektor) oder n = 1 (Zeilenvektor) sind. Eine weitere Umformung der Matrix A besteht in der komplexen Konjugation. Die konjugierte Matrix bezeichnet man als A. Die Matrix, die durch Hintereinanderausführung von komplexer Konjugation und Transponation entsteht, nennt man schließlich Adjungierte von A: A = (A T ) = (A) T. (2.2) Ist K = R, so ist A = A T. Sei im Folgenden V ein Skalarproduktraum, C K n m und B K m p. Für die Rechnung mit den so definierten Matritzen gelten einige Regeln: 1. (A B) = B A 2. (αa) = αa α K 3. (A + C) = A + C 4. I = I T = I 5. (A ) 1 = (A 1 ) falls A invertierbar 6. (Ax y) = (x A y) x, y V. Mit Hilfe von Transponierung und Adjungierung lässt sich auch das euklidische Skalarprodukt zweier Vektoren anders schreiben: (x y) = x T y = y T x = x y, x, y R n (x y) = x T y = x y = y x, x, y C n. 2.2 Orthogonale und Unitäre Matrizen Eine Matrix A R n n ist orthogonal, wenn A 1 = A T. In diesem Fall bilden die Spalten von A ein Orthonormalsystem im R n. Das Analogon im komplexen Fall nennt sich unitär. Eine Matrix C C n n wird so bezeichnet, falls C 1 = C. Auch in diesem Fall bilden die Spalten von C ein Orthonormalsystem, nun allerdings im C n. Unitäre Matrizen haben eine besondere Eigenschaft im Zusammenhang mit dem Skalarprodukt: (Cx y) = (x C y) = (x C 1 y) (Cx Cy) = (x CC 1 y) = (x y). (2.3) Weiterhin haben Matrizen dieser Art immer eine Determinante mit Betrag 1, folgend daraus, dass det C = det C T = (det C ) bzw. im reellen Fall det A = det A T. det C 1 = 1 det C = 1 (det C ) = 1 (det C 1 ) det C 1 = det C = 1. (2.4) 7
8 Unitäre Matrizen verändern also anschaulich die Länge eines Vektors nicht, wenn man sie mit diesem multipliziert, was erklärt weshalb auch das obige Skalarprodukt sich durch sie nicht verändert. Im Spezialfall reeller orthogonaler Matrizen gelten diese Gleichungen ebenso, nur haben sämtliche Konjugationen keinerlei Wirkung. 2.3 Eigenwerte von Diagonal- und Dreiecksmatritzen Wie bereits in Tutorium 6 kurz angesprochen ist die Determinante einer Dreiecksmatrix das Produkt ihrer Diagonalelemente. Ist also A C n n eine solche Dreiecksmatrix, dann hat auch (A λi) diese Eigenschaft und die Nullstellen des charakteristischen Polynoms und damit die zu A gehörenden Eigenwerte sind erneut diese Diagonalelemente. Im Falle einer Diagonalmatrix, die also nur auf der Hauptdiagonalen von 0 verschiedene Elemente besitzt, sind die zugehörigen Eigenvektoren die Achseneinheitsvektoren wie e x, e y, e z. 2.4 Eigenwerte von linearen Abbildungen Wie bereits den Begriff der Determinante kann man auch Eigenwerte und -räume auf lineare Abbildungen übertragen, da sich diese durch Matrixmultiplikationen darstellen lassen. Die Eigenwertgleichung lautet in diesem Falle Φ(x) = λx. Ist eine Abbildung Φ : V W weiterhin injektiv, so existiert auch eine lineare Umkehrabbildung Φ 1 : Bild Φ V und falls U ein UVR von V ist, so ist Φ(U) ein UVR von Bild Φ mit der selben Dimension. 2.5 Ähnlichkeit von Matrizen Seien A, B C n n, dann heißen A und B ähnlich (A B), wenn es eine invertierbare Matrix S gibt, sodass B = S 1 A S. Ähnliche Matrizen besitzen die selbe Determinante, das selbe charakteristische Polynom und die selben Eigenwerte mit identischen alg. und geom. Vielfachheiten. Weiterhin ist Ähnlichkeit eine Äquivalenzrelation (symmetrisch, transitiv, reflexiv). 2.6 Symmetrische und Hermitesche Matrizen Eine Matrix A R n n heißt symmetrisch, falls A = A T. Eine Matrix A C n n heißt hermitesch (oder selbstadjungiert), falls A = A. Matritzen dieser Art haben einige Eigenheiten: (Ax x) R x C n, alle Eigenwerte von A sind reell und die Eigenräume zu unterschiedlichen Eigenwerten stehen orthogonal aufeinander. Als Folge der dritten Eigenschaft lässt sich bei symmetrischen Matritzen im R 3 3 der letzte Eigenvektor also auch als Kreuzprodukt der beiden ersteren bestimmen. Weiterhin sind Matrizen dieser Art immer unitär diagonalisierbar, also diagonalisierbar mit einer unitären Matrix S, S 1 = S (gleichbedeutend: die Spalten von S sind orthonormal). 8
9 2.6.1 Spektralsatz für hermitesche Matrizen Ist A C n n hermitesch, so gibt es eine Orthonormalbasis des C n aus Eigenvektoren u 1,..., u n von A. Als Folge dessen (man schreibe diese Vektoren in die Spalten einer Matrix S) ist A unitär diagonalisierbar und es gilt weiterhin A m x = n λ m j (x u j ) u j x C n. (2.5) j= Normale Matritzen Eine Matrix A C n n heißt normal, wenn A A = A A ist. Jede hermitesche Matrix ist auch normal, ebenso wie grundsätzlich eine Äquivalenz zwischen Normalität und unitärer Diagonalisierbarkeit besteht. 2.7 Definitheit Sei A C n n hermitesch, dann nennt man die quadratische Form von A; diese ist immer reell. q A (x) = (Ax x) (2.6) A heißt positiv definit (pd), falls q A (x) > 0 x C n \ {0} und positiv semidefinit (psd) im Falle, dass q A (x) 0 x C n \ {0}. Entsprechend werden die Begriffe negativ definit (nd) und negativ semidefinit (nsd) verwendet, falls in der Gleichung < oder steht. Sollte q A (x) für unterschiedliche x C n sowohl positive als auch negative Werte annehmen, so ist A indefinit (id) Alternative Bestimmung 1 Ist A C n n hermitesch, dann gilt A ist pd alle Eigenwerte sind positiv, A ist nd alle Eigenwerte sind negativ, A ist id es gibt sowohl positive als auch negative Eigenwerte Alternative Bestimmung 2 Ist A R 2 2 und symmetrisch, so gilt A ist pd det(a) > 0 und spur(a) > 0, A ist nd det(a) > 0 und spur(a) < 0, A ist id det(a) < 0. Die hierbei verwendete Spur bezeichnet die Summe der Diagonalelemente, also in diesem Fall ist spur(a) = a 11 + a 22. 9
10 2.7.3 Alternative Bestimmung 3 Ist A R n n symmetrisch, dann ist A pd genau dann, wenn die Determinanten der Matrizen A m alle positiv sind. A m ist dabei die m m-matrix, die im linken oberen Eck von A steht. Falls also n = 3, dann gilt a b c ( ) A = d e f a b ; A 2 = ; A d e 1 = a. g h i Eine Matrix kann also immer nur dann positiv definit sein, wenn ihr linkes oberes Element positiv ist, was eine sehr schnelle Ausschlussmöglichkeit liefert. 3 Aufgaben Die Musterlösungen der Tutoriumsaufgaben 38, 39 und 40 finden sich nach Ablauf der zugehörigen Semesterwoche auf der Internetseite der Vorlesung unter kit.edu/iana1/lehre/hm2phys2018s/. Darüber hinaus sei eine Anmerkung gemacht: 3.1 Aufgabe 39 b) Wie bereits in der Aufgabenstellung bemerkt erhält man durch Anwendung des Gram- Schmidt-Verfahrens auf die Monome p m (x) = x m mehr oder weniger die sogenannten Legendre-Polynome. Selbige ergeben sich, wenn statt der Normierung b i = 1 die Bedingung b i (1) = 1 gewählt wird. Die Skalarprodukt-Relation dieser Polynome lautet dann 1 1 P n (x) P m (x) dx = 1 2n + 1 δ nm. (3.1) Die so definierten Polynome erweisen sich als nützlich bei der Lösung der Legendre- Differentialgleichung (1 x 2 )f (x) 2xf (x) + n(n + 1)f(x) = 0, n N 0, (3.2) welche in abgewandelter Form auch bei der separierten Lösung der Laplace-Gleichung in Kugelkoordinaten auftaucht. Entsprechend finden sich die sogenannten zugeordneten Legendre-Polynome als Teil der Eigenfunktionen des Laplace-Operators (sog. Kugelflächenfunktionen) wieder und werden in den Vorlesungen Theo C, D und E häufig verwendet. Bei näherem Interesse an dieser Thematik sei auf folgende Seiten verweisen:
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
MehrDiagonalisierbarkeit symmetrischer Matrizen
¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrHM II Tutorium 3. Lucas Kunz. 10. Mai 2016
HM II Tutorium 3 Lucas Kunz 10. Mai 2016 Inhaltsverzeichnis 1 Theorie für das Tutorium 2 1.1 Definition der Determinante.......................... 2 1.2 Errechnung von Determinanten........................
Mehr10 Unitäre Vektorräume
10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;
MehrHM II Tutorium 1. Lucas Kunz. 24. April 2018
HM II Tutorium 1 Lucas Kunz 24. April 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Körper...................................... 2 1.2 Gruppen..................................... 2 1.3 Vektorraum...................................
MehrKapitel 5 : Eigenwerte und Eigenvektoren
Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrKontrollfragen und Aufgaben zur 3. Konsultation
1 Technische Universität Ilmenau Fakultät für Mathematik und Naturwissenschaften Institut für Mathematik Prof. Dr. Michael Stiebitz Kontrollfragen und Aufgaben zur 3. Konsultation Termin: Ort: Determinante
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
MehrFerienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen
Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Freitag, 16.03.2012 Sascha Frölich Ferienkurs Lin. Alg. -
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
MehrSommer 2017 Musterlösung
Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrLösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
Mehr6. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es
MehrGrundlegende Definitionen aus HM I
Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
MehrMusterlösungen zur Linearen Algebra II Übungsklausur
Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,
Mehr4 Lineare Abbildungen Basisdarstellungen
4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen
Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrT := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass
I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
MehrLernhilfe Höhere Mathematik I
Lernhilfe Höhere Mathematik I Tim Weber 3. 24 Vielen Dank an Andreas del Galdo für seine Zusammenfassung, Jakob Haufe für seine Musterlösungen, Marco Oster für den Abschnitt über QR- Zerlegung, Robert
MehrUniversität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n
Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF
TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrEigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung
Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch
MehrP AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3
Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
Mehr(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.
L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
MehrBasisprüfung. 18. August 2015
Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrHenning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich
Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es
MehrKarlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning
Karlsruher Institut für Technologie (KIT) WS 22/3 Institut für Analysis 28..23 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik I für die Fachrichtung Physik 4. Übungsblatt (letztes Blatt)
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
MehrHM II Tutorium 5. Lucas Kunz. 22. Mai 2018
HM II Tutorium 5 Lucas Kunz 22. Mai 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Wiederholung Lineare Gleichungsysteme................... 2 1.2 Wiederholung: Kern einer Abbildung..................... 3 1.3
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen
Hannover, den 0. April 2006. Übungsblatt: Lineare Algebra II Abgabe: 24./25.4.2006 in den Übungsgruppen ( ) 2 5 a) Zeigen Sie, dass A = und B = 2 ( 7 6 invertierbare Matrix T an mit T AT = B. b) Zeigen
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
Mehr4.4 Hermitesche Formen
44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung
MehrHöhere Mathematik II für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz SS 5 4.5.5 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrLösungen zu Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in
MehrLineare Algebra für Physiker 11. Übungsblatt
Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche
Mehr46 Eigenwerte und Eigenvektoren symmetrischer Matrizen
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
MehrÖkonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
Mehr17. Orthogonalsysteme
17. Orthogonalsysteme 17.1. Winkel und Orthogonalität Vorbemerkung: Sei V ein Vektorraum mit Skalaprodukt, und zugehöriger Norm, dann gilt nach Cauchy-Schwarz: x, y V \ {0} : x, y x y 1 Definition: (a)
MehrKapitel 3 Lineare Algebra
Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND
Mehr7.2 Die adjungierte Abbildung
7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)
MehrDefinitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht
Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 42 Normale Endomorphismen Nach Satz 34.1 besitzt eine Isometrie über C eine Orthonormalbasis aus Eigenvektoren
MehrAnalytische Geometrie
21 Vorlesungen über Analytische Geometrie für Lehramtstudierende der Schulformen Grund-, Mittel- und Realschule Jens Jordan Universität Würzburg, Wintersemster 2015/16 Hier kommt noch ein schönes Bildchen
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Mehra) Ein Gruppenhomomorphismus von G nach H ist eine Abbildung Φ : G H, sodass für alle g 1, g 2 G die Gleichung Φ(g 1 g 2 ) = Φ(g 1 ) Φ(g 2 )
I. (4 Punkte) Es seien (G, ) eine Gruppe mit neutralem Element e G und (H, ) eine weitere Gruppe. a) Geben Sie die Definition eines Gruppenhomomorphismus Φ : G H an und beweisen Sie, dass für solch einen
MehrLineare Algebra für Ingenieure
TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrHeinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,
Fakultät für Mathematik PD Dr Markus Perling Heinrich Heine-Universität Düsseldorf Sommersemester 2014 Lineare Algebra 1 Vierzehnte & Fünfzehnte Woche, 1672014 10 Determinanten (Schluß) Das folgende Resultat
MehrMusterlösungen zur Linearen Algebra II Hauptklausur
Musterlösungen zur Linearen Algebra II Hauptklausur Aufgabe. Q ist unitär genau dann, wenn gilt Q Q = I n. Daraus folgt, dass a) und c) richtig sind. Die -Matrix A := (i) zeigt, dass i.a. A A t, d.h. b)
MehrLineare Algebra I Ferienblatt
Wintersemester 09/0 Prof. Dr. Frank-Olaf Schreyer Dr. Janko Boehm Lineare Algebra I Ferienblatt. Sei, das Euklidische Skalarprodukt auf R. Das Kreuzprodukt a b von Vektoren a, b R ist durch die Formel
MehrWiederholungsserie II
Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095
MehrLINEARE ALGEBRA I (LEHRAMT GYMNASIUM) WINTERSEMESTER 2015/16
LINEARE ALGEBRA I (LEHRAMT GYMNASIUM) WINTERSEMESTER 2015/16 CAROLINE LASSER Inhaltsverzeichnis 1. Matrizen 2 1.1. Eliminationsverfahren (13.04.) 2 2. Euklidische Vektorräume 3 2.1. Skalarprodukte und
MehrLineare Algebra II (SS 13)
Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer
Mehr7.3 Unitäre Operatoren
Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren
MehrTutorium 7. Definition. Sei V ein C-Vektorraum. Eine Abbildung, : V V C heißt komplexes Skalarprodukt : det F k > 0 mit F k := (f i,j ) C k k
Skalarprodukte Tutorium 7 Bemerkung. Für jeden komplexen Vektorraum V mit dim V und jede komplexe Bilinearform P auf V findet man einen Vektor v mit P (v, v) =. Es gibt also keine positiv definite Bilinearformen
MehrLINEARE ALGEBRA II (LEHRAMT GYMNASIUM) SOMMERSEMESTER 2017
LINEARE ALGEBRA II (LEHRAMT GYMNASIUM) SOMMERSEMESTER 2017 CAROLINE LASSER Inhaltsverzeichnis 1. Euklidische Vektorräume 2 1.1. Skalarprodukte und Normen (26.4.) 2 1.2. Orthonormalisierung (3.5.) 2 1.3.
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
MehrLösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen
Technische Universität Berlin Sommersemester 2008 Institut für Mathematik 18 Juli 2008 Prof Dr Stefan Felsner Andrea Hoffkamp Lösungsskizzen zur Klausur zur Linearen Algebra II Aufgabe 1 (1+1+1 Punkte)
Mehr13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN
13. ABBILDUNGEN in EUKLIDISCHEN VEKTORRÄUMEN 1 Orthogonale Abbildungen im R 2 und R 3. Eine orthogonale Abbildung ist eine lineare Abbildung, die Längen und Orthogonalität erhält. Die zugehörige Matrix
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
MehrLineare Algebra I Lösungsvorschlag
Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und
MehrDeterminante und Inverse
Vorzeigeaufgaben: Determinante und Inverse Bestimmen Sie für welche a R die folgende Matrix invertierbar ist und berechnen Sie deren Inverse: A = a cos(x) sin(x) a sin(x) cos(x) Bestimmen Sie ob folgende
MehrD-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx
D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 13 1. Die Matrix A±I ist singulär falls es einen Vektor x 0 gibt der die Gleichung (A±I)x = 0 erfüllt, d.h. wenn A ± I als
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
MehrKlausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe
Klausur zu Lineare Algebra II Fachbereich Mathematik WS 0/3 Dr. habil. Matthias Schneider Aufgabe 3 4 5 6 7 Bonus Note Punktzahl 4 3 3 3 3 0 erreichte Punktzahl Es sind keine Hilfsmittel zugelassen. Die
Mehr5.2 Diagonalisierbarkeit und Trigonalisierung
HINWEIS: Sie finden hier eine vorläufige Kurzfassung des Inhalts; es sind weder Beweise ausgeführt noch ausführliche Beispiele angegeben. Bitte informieren Sie sich in der Vorlesung. c M. Roczen und H.
Mehr