Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.
|
|
- Elvira Lena Fleischer
- vor 6 Jahren
- Abrufe
Transkript
1 Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur Approximation der Eigenwerte einer symmetrischen Matrix. Diese zeichnen sich dadurch aus, dass sie pro Iterationsschritt im wesentlichen mit nur einer Matrix Vektor Multiplikation auskommen. So sind sie besonders geeignet,die Eigenwert großer,dünnbesetzter Matrizen zu approximieren, deren Berechnung beispielsweise mit dem QR- Algorithmus einfach zu aufwendig wäre. C. Lanczos war ein ungarischer Mathematiker. Die Idee der Verfahren geht auf eine seiner Arbeiten aus dem Jahre 1950 zurück. Herleitung Zur Herleitung formulieren wir das Eigenwertproblem zunächst als eine Extremwertaufgabe. Ax = λx Lemma 1 Seien λ min und λ max der kleinste bzw. größte Eigenwert einer Matrix A Mat n (R). Dann gilt λ min = min x 0 x, x und λ max = max x 0 x, x Beweis: A ist symmetrisch, also gibt es eine orthogonale Matrix Q O (n) mit QAQ T = Λ = diag(λ 1,..., λ n ) Mit y := Qx gilt x, x = y, y und weiter = Q T y, AQ T y = y, QAQ T y = y, Λy. 1
2 Mit den den Bezeichnungen y 1,..., y n für die Koeffizienten des Vektors und e 1,..., e n für die Einheitsvektoren folgt weiter 1 Λy = λ... y = λ i y i e i λ n und somit y, Λy = y, für die Summe gilt nun λ i y i e i = λ i yi 2 λ min yi 2 λ i yi 2 λ max y 2 i und also auch λ min Somit ist die Aussage offensichtlich. y, Λy y, y λ max. Definition 2 Die Funktion µ : R n R, µ(x) := x, x heit Rayleigh Quotient von A. Im folgenden werden wir den Rayleigh Quotienten öfter benutzen. Korollar 3 Seien λ 1 λ n die Eigenwerte der symmetrischen Matrix A Mat n (R) und η 1,..., η n die zugehörigen Eigenvektoren. Dann gilt λ i = min µ(x) = max µ(x). x span(η i,...,η n ) x 0 x span(η 1,...,η i ) x 0 Auch dieses Korollar ist leicht einzusehen: x ist aus dem zugehörigen Eigenraum aller Eigenwerte größer oder gleich λ i. Der Rayleigh Quotient kann dann für x keinen Eigenwert kleiner als λ i annehmen. Ebenso kann er für x aus dem zugehörigen Eigenraum aller Eigenwerte kleiner oder gleich λ i maximal den Wert λ i annehmen. 2
3 Die Umformulierung des Eigenwertproblems als Extremwertaufgabe legt uns, nahe diese einfach auf einer Folge von Teilräumen V 1 V 2... R n zu lösen, um schlielich die Eigenwerte λ min und λ max genügend genau zu approximieren (siehe Verfahren der konjugierten Gradienten). Als Teilräume wählen wir die Krylov Räume. V k (x) := span{x, Ax,..., A k 1 x} Mit einem Startwert x 0, x V k und k = 1, 2,... erhalten wir also folgende Extrema λ (k) min := min y, Ay y V k (x) y 0 y, y, λ(k) max := für diese gilt außerdem, da V k R n λ (k) min λ min und λ (k) max λ max. y, Ay max y V k (x) y 0 y, y Somit können wir erwarten, daß die Eigenwerte λ min und λ max durch die Extrema für wachsende k gut approximiert werden. Der Lanczos Algorithmus Sei nun Q k := [v 1,..., v k ] eine spaltenorthonormale Matrix und T k eine symmetrische Tridiagonalmatrix, α 1 β 2 β 2 α 2 β 3 T k = β k α k 1 β k β k α k so dass Q T k AQ k = T k. Durch beidseitiges Multiplizieren mit dem j-ten Einheitsvektor ergibt sich Weiter gilt auch e j T k e j = e j Q T k AQ ke j α j = v T j Av j fürj = 1,..., k. (1) Q T k AQ k = T k AQ = QT k. Und durch Vergleich der jeweils j-ten Spalte erhält man. β j 1 Av j = [v 1,..., v j,..., v k ] α j = β j 1 v j 1 + α j v j + β j v j+1 (2) β j. 3
4 mit j = 1, 2,..., k und β 0 v 0 = β k v k+1 = 0. Setzen wir nun weiter So wird aus (2) w j = (A α j I)v j β j 1 v j 1 (3) Av j α j v j β j 1 v j 1 = (A α j I)v j β j 1 v j 1 = w j = β j v j+1 mit j = 1, 2,..., k und w k = 0. Mit v j = 1 folgt außerdem w j 2 = β j. Daher wählen wir β j = w j 2. (β j = 0 genau dann wenn auch w j = 0) Aus (2) entnehmen wir auch die Iterationsvorschrift und somit erhalten wir v j+1 = w j β j für β j 0, j = 1, 2,..., k 1 Lanczos Algorithmus v 1 ist beliebig mit v 1 2 = 1 und α 1 = v T 1 Av 1, β 1 = w 1 2 v j+1 = w j β j α j+1 = v T j Av j w j+1 = (A α j+1 I)v j+1 β j v j β j+1 = w j+1 2 für j = 1, 2,... und β j 0. Mit Hilfe dieses Algorithmus lässt sich die symmetrische Tridiagonalmatrix nun einfach bestimmen. Weiter gilt nun mit y = Q k für ein v R k, dass y, y = v, v und Daraus ergibt sich, dass y, Ay = Q k v, AQ k v = v, Q T k AQ kv = v, T k v. λ (k) min = min y, Ay y V k (x) y 0 y, y = v R min = 0 v, T kv = λ min (T k ) k v 0 v, v und analog folgt λ (k) max = λ max (T k ). Außerdem folgt wegen V k+1 V k und der Minimaleigenschaft λ (k+1) min λ(k) min und λ(k+1) max λ (k) max. 4
5 Die gesuchten Approximation λ (k) min und λ(k) max entsprechen daher den extremen Eigenwerten der symmetrischen Tridiagonalmatrix T k und lassen sich als solche beispielsweise mit dem QR Algorithmus leicht berechnen. Im Gegensatz zum cg-verfahren (konjugierte Gradienten) ist bei diesem Verfahren nicht garantiert, dass λ (n) min = λ min,da im Allgemeinen V n (x) R n. Ist dies der Fall zeigt es sich dadurch, dass im Lanczos Algorithmus β k+1 für ein k < n verschwindet. Sollte dies der Fall sein, muss die Berechnung mit einem x V k (x) wiederholt werden. Konvergenzgeschwindigkeit des Verfahrens Hilfssatz 4 Jedes Polynom P n P n mit führendem Koeffizienten a n 0 nimmt im Intervall [ 1, 1] einen Wert vom Betrag an an. Insbesondere sind 2 n 1 die Tschebyscheff Polynome T n (x) minimal bezüglich der Maximumsnorm f = max x [ 1,1] f(x) unter dem Polynom vom Grad n mit führenden Koeffizienten 2 n 1. Beweis: Sei P n P n ein Polynom mit führenden Koeffizienten a n = 2 n 1 und P n (x) < 1 für x [ 1, 1]. Dann ist T n P n ein Polynom vom Grad kleiner oder gleich n-1. An den Tschebyscheff Abzissen x k := cos kπ n gilt T n ( x 2k ) = 1, P n ( x 2k ) < 1 P n ( x 2k ) T n ( x 2k ) < 0 T n ( x 2k+1 ) = 1, P n ( x 2k+1 ) > 1 P n ( x 2k+1 ) T n ( x 2k+1 ) > 0, die bedeutet die Differenz T n P n ist an den n + 1 Tschebyscheff Abzissen abwechselnd positiv und negativ, hat also mindestens n Nullstellen im Intervall. Dies steht im Widerspruch zu 0 T n P n P n 1. Also gibt es für jedes Polynom P n P n mit führenden Koeffizienten a n = 2 n 1 ein x [ 1, 1], mit dem P n (x) 1. Für beliebige Polynom mit führenden Koeffizienten a n 0 folgt die Behauptung daraus, dass P n := 2n 1 a n P n ein Polynom ist mit führendem Koeffiziente ã n = 2 n 1 ist für das die Behauptung schon gezeigt ist. Die Konvergenzgeschwindigkeit des Verfahrens lässt sich mit Hilfe der Tschebyscheff Polynome abschätzen. 5
6 Satz 5 Sei A eine symmetrische Matrix mit den Eigenwerten λ 1 λ n und zugehörigen orthonormalen Eigenvektoren η 1,..., η n. Seien weiter µ 1 µ k die Eigenwerte der Tridiagonalmatrix T k des Lanczos Verfahrens zum Startwert x 0 mit der Orthonormalbasis v 1,..., v k von V k (x) wie im Lanczos Algorithmus. Dann gilt wobei ρ n := (λ n λ n 1 ) (λ n 1 λ 1 ). λ n µ k λ n (λ n λ 1 ) tan 2 ( (v k, η n )) Tk 1 2 (1 + 2ρ, n) Beweis: Für unsere Krylov Räume gilt V k (x) = {P (A)x : P P k 1 } daher gilt weiter y, Ay µ k = max y V k (x) y 0 y, y = max P (A)v 1, AP (A)v 1 P P k 1 P (A)v 1, P (A)v 1. Stellen wir v 1 bezüglich der Orthonormalbasis η 1,..., η n dar, dann gilt mit Weiter folgt P (A)v 1, AP (A)v 1 = P (A) und ebenso So erhalten wir = v 1 = ξ j η j ξ j = v 1, η j = cos( (v 1, η j )). ξ j η j, AP (A) ξ j P (λ j ), P (A)v 1, AP (A)v 1 P (A)v 1, P (A)v 1 = ξ j η j = ξ j P (A)η j, ξ j P (λ j )λ j = P (A)v 1, P (A)v 1 = ξj 2 P 2 (λ j )λ j ξj 2 P 2 (λ j ). n ξ2 j P 2 (λ j )λ n + n 1 ξ2 j P 2 (λ j )(λ j λ n ) n ξ2 j P 2 (λ j ) λ n + (λ 1 λ n ) n 1 ξ2 j P 2 (λ j ) ξnp 2 2 (λ n ) + n 1 ξ2 j P 2 (λ j ), da (λ 1 λ n ) (λ j λ n ) j 2. Eine möglichst scharfe Abschätzung erhalten wir, wenn wir ein Polynom P P n 1 einsetzen, das innerhalb des Intervalls 6 ξ j AP (A)η j
7 [λ 1, λ n 1 ] möglichst klein ist. Nach Hilfssatz 5 empfiehlt sich das transformierte Tschebyscheff Polynom P (λ) := T k 1 (t(λ)) mit t(λ) = 2 λ λ 1 λ n 1 λ 1 1 = λ λ n 1 λ n 1 λ 1. Dieses hat die Eigenschaft P (λ j ) 1 für j = 1,..., n 1. Außerdem gilt Somit ist ξj 2 = und aus der Tatsache, dass ξ j ηj T η j ξ j = v1 T v 1 = v = 1 µ k λ n (λ n λ 1 ) 1 ξ2 n ξ 1 T 2 k 1(1 + 2ρ n), 1 ξ 2 n ξ 2 n = sin2 ( (v 1, η n )) cos 2 ( (v 1, η n )) = tan2 ( (v 1, η n )) folgt die Behauptung. Das verallgemeinerte symmetrische Eigenwertproblem In vielen Anwendungen trifft man auf das sogenannte verallgemeinerte symmetrische Eigenwertproblem, Ax = λbx, wobei die Matrizen A, B Mat n (R) beide symmetrisch sind und B zusätzlich positiv definit. Setzen wir die Cholesky-Zerlegung B = LL T in das verallgemeinerte Eigenwertproblem ein, so gilt Ax = λbx Ax = λll T x (L 1 AL T ) L }{{}}{{} T x = λl T x. =: x =:Ā Nun ist auch Ā = L 1 AL T wieder eine symmetrische Matrix, so dass das verallgemeinert Eigenwert Problem Ax = λbx äquivalent zum symmetrischen Eigenwertproblem Ā x = λ x. Damit sind alle Eigenwerte λ i reell und es gibt eine Orthonormalbasis η 1,..., η n von verallgemeinerten Eigenvektoren Aη i = λ i Bη i. Es lässt sich demnach auch ein verallgemeinerter Rayleigh Quotient von (A, B) definieren durch µ(x) := x, Bx, so können wir analog zu Lemma 1 formulieren. 7
8 Lemma 6 Seien λ min und λ max der kleinste bzw. der größte Eigenwert des verallgemeinerten Eigenwertproblems Ax = λbx, wobei A, B Mat n (R) symmetrisch und B positiv definit. Dann gilt λ min = min x 0 x, Bx und λ max = max x 0 x, Bx. Beweis: Wie oben bereits erwähnt gilt mit der Cholesky Zerlegung B = LL T. Die Matrizen L sind untere Dreiecksmatrizen. Für sie gilt x, Lx = L T x, x x, Bx = x, LL T x = L T x, L T x = x, x und = L T x, AL T x = x, L 1 AL T x = x, Ā x. Die Behauptung folgt aus der Äquivalenz Ax = λbx Ā x = λ x und dem Lemma 1. Der Lanczos Algorithmus überträgt sich also ganz analog. wird beibehalten und x, x durch x, Bx ersetzt. Außerdem wird x 2 durch x, Bx 1/2 ersetzt. Spektral-Lanczos Nicht immer ist nur nach den randständigen Eigenwerten λ min und λ max gefragt. Oft sind auch Eigenwerte in vorgegebenen Intervallen oder alle Eigenwerte gesucht. Die Grundidee der inversen Vektoriteration hilft hier weiter. Bei dieser wird davon aus gegangen man habe ein Schätzwert λ zum gesuchten Eigenwert λ i zur Verfügung für den gilt λ λ i < λ λ j für alle j i. Dann ist ( λ λ i ) 1 der betragsgrößte Eigenwert der Matrix (A λi) 1. In unserem Fall, dem verallgemeinerten Eigenwertproblem, hat die Matrix die Form Diese hat nun gerade die Eigenwerte C := (Ā λi) 1 = L T (A λb) 1 L. v i := (λ i λ) 1 für alle i = 1, 2,... Wendet man nun das Lanczos Verfahren auf die Matrix C an, liefert dies dominante Eigenwerte v i. Also Eigenwerte λ i in einer Umgebung von λ. Durch Variation des Shiftparameters λ in einem vorgegebenen Intervall kann man so sämtliche Eigenwerte erhalten. Diese Variante des Lanczos Algorithmus nennt man Spektral Lanczos. Sie wurde 1980 von T. Ericsson und Å. Ruhe beschrieben. 8
9 Literaturhinweise: Opfer: Numerische Mathematik für Anfänger, 2.Auflage; Kapitel 9.5 (Lanczos Algorithmus) Deuflhard-Hohmann: Numerische Mathematik I, 3.Auflage; Kapitel 8.5 (Lanczos Methoden) 9
51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrKapitel 5 : Eigenwerte und Eigenvektoren
Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrKAPITEL 7. Berechnung von Eigenwerten. Av = λv
KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor
MehrEinführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)
Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrIII Das Symmetrische Eigenwertproblem (SEP)
III Das Symmetrische Eigenwertproblem (SEP) III3 Algorithmen für symmetrische tridiagonale Eigenwertprobleme Sei im folgenden a b A = b a b b n a n b n b n a n R n n, zb nach Householder- oder Lanczos(im
Mehr8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren
8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud.
Dr. V. Gradinaru D. Devaud Herbstsemester 15 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 1 Aufgabe 1.1 1.1a) Sei A eine n n-matrix. Das Gleichungssystem Ax = b sei
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
MehrEinführung in die Grundlagen der Numerik
Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Definition Eigenwertproblem Zu einer Matrix A R n n sind
Mehr46 Eigenwerte und Eigenvektoren symmetrischer Matrizen
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über
Mehr4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
MehrBanach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;
Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben
Mehr20 Kapitel 2: Eigenwertprobleme
20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die
MehrLineare Algebra II 11. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des
MehrDiagonalisierbarkeit symmetrischer Matrizen
¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrT n (1) = 1 T n (cos π n )= 1. deg T n q n 1.
KAPITEL 3. INTERPOLATION UND APPROXIMATION 47 Beweis: Wir nehmen an qx) für alle x [, ] und führen diese Annahme zu einem Widerspruch. Es gilt nach Folgerung ii) T n ) T n cos π n ). Wir betrachten die
MehrAnalysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit
A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrHöhere Mathematik II für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz SS 5 4.5.5 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
MehrIX. Das symmetrische Eigenwertproblem (SEP)
IX. Das symmetrische Eigenwertproblem (SEP IX.3. Algorithmen für symmetrische tridiagonale Matrizen Sei a b. b A =........ a n b n (IX. b n a n z. B. nach Householder- oder Lanczos-Triagonalisierung (Kapitel
Mehrc i u i. (10.2) x = i
Kapitel 0 Von Mises Wielandt Verfahren Im Folgenden wollen wir uns ausschließlich auf reelle, symmetrischen Matrizen der Ordnung n beschränken. Wie im letzten Kapitel diskutiert, sind für solche Matrizen
Mehr6 Die Schursche Normalform und einige Klassen von Matrizen
ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-
MehrLösungen der Aufgaben zu Kapitel 11
Lösungen der Aufgaben zu Kapitel Vorbemerkung: Zur Bestimmung der Eigenwerte (bzw. des charakteristischen Polynoms) einer (, )-Matrix verwenden wir stets die Regel von Sarrus (Satz..) und zur Bestimmung
Mehr7.3 Unitäre Operatoren
Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R Käppeli L Herrmann W Wu Herbstsemester Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe Beispiel einer Koordinatentransformation Gegeben seien zwei
Mehr8. Eigenwerte und Eigenvektoren
8. Eigenwerte und Eigenvektoren 8.1. Einführung, Definition, Grundlagen Eigenwertproblem Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor x und ein Skalar λ (auch λ =
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrParallelrechnern. 12. März Technische Universität Chemnitz. Der Jacobi-Davidson Algorithmus auf. Parallelrechnern. Patrick Kürschner.
Technische Universität Chemnitz 12. März 2008 - sweise Gliederung - sweise - sweise Eigenwertprobleme Ziel: Lösung von Eigenwertproblemen Dabei: Ax = λx Matrix A C n n sehr groß, dünnbesetzt (sparse) Gesucht:
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
MehrEigenwerte und Eigenvektoren
Kapitel 2 Eigenwerte und Eigenvektoren Gemäß einer Aussage von Kurt Bryan muss ein Suchmaschinenanbieter, zum Beispiel Google, das Netz (World Wide Web durchforsten und Information auf den Webseiten sammeln
MehrLineare Algebra und Geometrie II, Übungen
Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
Mehr7.2 Die adjungierte Abbildung
7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
MehrSommer 2017 Musterlösung
Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert
MehrSerie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1
Prof. Norbert Hungerbühler Serie Lineare Algebra II ETH Zürich - D-MAVT. a Welche der folgenden Vektoren sind Eigenvektoren der Matrix? i (,,. ii (,,. iii (,,. iv (, 3,. v (,,. Ein Vektor v ist Eigenvektor
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrP AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3
Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
MehrMathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))
Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrD-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den
D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes
MehrLineare Algebra für Physiker 11. Übungsblatt
Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrSymmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten
Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten 1 / 20 Lineares Gleichungssystem Ax = f, n A[i, j]x j = f i j=1 für i = 1,..., n Voraussetzungen Matrix A sei symmetrisch: A[i, j] =
MehrComputergestützte Mathematik zur Linearen Algebra
Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh
MehrLösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1
D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R. Käppeli L. Herrmann W. Wu Herbstsemester 16 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Prüfung Name a a Note Vorname Leginummer Datum 18.8.17 1 3 4 Total 1P 1P 1P 1P 1P P
Mehr9. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
Mehr2 EIGENWERTPROBLEME. Av = λv
EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor
MehrD-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx
D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 13 1. Die Matrix A±I ist singulär falls es einen Vektor x 0 gibt der die Gleichung (A±I)x = 0 erfüllt, d.h. wenn A ± I als
MehrEigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen
Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrBegleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme
Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik 1
MehrAUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW
AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x
MehrLineare Algebra II 3. Übungsblatt
Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrMODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik)
Karlsruher Institut für Technologie KIT) Institut für Analysis Dr. S. Wugalter Herbst 7.9.7 MODULPRÜFUNG Numerische Methoden Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Aufgabe 4 Punkte)
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
MehrNumerik SS Musterlösung zu Hausaufgabenblatt 1
PROF DR BERND SIMEON CHRISTIAN GOBERT THOMAS MÄRZ Numerik SS 2009 Musterlösung zu Hausaufgabenblatt Aufgabe Links- und Rechtseigenpaare (20 P) Definition: Sei A C n n Ein Vektor 0 = x C n heißt (Rechts-)eigenvektor
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
MehrKLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.
MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw
MehrEigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )
Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
MehrDiplom Vorprüfung bzw. Bachelor Modulprüfung Höhere Mathematik II für die Fachrichtung Physik. Lösungsvorschläge. det
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Herbst 9.9.9 Diplom Vorprüfung bzw. Bachelor Modulprüfung Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge Aufgabe
MehrLineare Algebra für D-ITET, D-MATL, RW. Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru T. Welti
Dr. V. Gradinaru T. Welti Herbstsemester 27 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Serie Aufgabe. Multiple Choice: Online abzugeben..a) Bezüglich des euklidischen Skalarprodukts in R
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrTU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
MehrA 1 A 2 A 3 A 4 A 5 A 6 A 7
Institut für Geometrie und Praktische Mathematik Numerisches Rechnen für Informatiker WS 7/8 Prof. Dr. H. Esser J. Grande, Dr. M. Larin Klausur Numerisches Rechnen für Informatiker Hilfsmittel: keine (außer
Mehr6. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es
MehrNumerische Mathematik für Ingenieure und Physiker
Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin
MehrAufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.
Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
Mehr45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
MehrQuadratische Formen. und. Symmetrische Matrizen
Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x
Mehr