4.6 Berechnung von Eigenwerten
|
|
- Berndt Weiß
- vor 6 Jahren
- Abrufe
Transkript
1 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind. Eine einfache Erweiterung der Potenzmethode ist die Inverse Iteration nach Wieland zur Berechnung des kleinsten Eigenwerts einer Matrix. Zur Herleitung verwenden wir die Tatsache, dass zu einem Eigenwert λ einer regulären Matrix A R n n durch λ 1 ein Eigenwert der inversen Matrix A 1 R n n gegeben ist: Aw = λ(a)w A 1 w = λ(a) 1 w =: λ(a 1 )w. Die Potenzmethode, angewendet auf die inverse Matrix liefert den betragsgrößten Eigenwert λ max (A 1 ) von A 1. Der Kehrwert dieses Eigenwertes ist der betragskleinste Eigenwert der Matrix A selbst λ min (A) = λ max (A 1 ) 1. Dieses Prinzip kann weiter verallgemeinert werden. Dazu sei λ(a) ein Eigenwert mit zugehörigem Eigenvektor w R n von A und σ C eine beliebige komplexe Zahl (jedoch kein Eigenwert von A). Dann gilt: (A σi)w = (λ(a) σ)w = λ(a σi)w [A σi] 1 w = λ([a σi] 1 )w. Die Anwendung der Potenzmethode auf die Matrix [A σi] 1 liefert nach vorangestellter Überlegung den betragskleinsten Eigenwert der Matrix [A σi], d.h. den Eigenwert von A, der σ am nächsten liegt. Liegen nun Schätzungen für die Eigenwerte der Matrix A vor, so können die genauen Werte mit der Inversen Iteration bestimmt werden. Die Gerschgorin- Kreise liefern oft einen guten Anhaltspunkt für σ. Satz 4.80 (Inverse Iteration mit Shift). Es sei A R n n eine reguläre Matrix. Es sei σ C. Für die Eigenwerte λ i von A gelte: 0 < λ 1 σ < λ 2 σ λ n σ. Es sei x (0) R n ein geeigneter normierter Startwert. Für i = 1, 2,... konvergiert die Iteration [A σi] x (i) = x (i 1), x (i) := x(i) x (i), µ(i) := x(i) k x (i 1) k für jeden Index k {1,..., n} gegen den Eigenwert λ 1 von A: ( λ 1 λ (i) λ 1 σ i) = O. λ 2 σ, λ (i) := σ + (µ (i) ) 1, Beweis: Der Beweis ist eine einfache Folgerung aus Satz Falls σ kein Eigenwert von A ist, so ist B := A σi invertierbar. Die Matrix B 1 hat die Eigenwerte µ 1,..., µ n, mit Für diese gilt nach Voraussetzung: µ i = (λ i σ) 1 λ i = µ 1 i + σ. (4.12) µ 1 > µ 2 µ n >
2 4 Numerische Lineare Algebra Die Potenzmethode, Satz 4.77, angewandt auf die Matrix B 1 liefert eine Approximation für µ 1 : ( µ (i) µ 2 i) µ 1 = O. Die gewünschte Aussage folgt mit (4.12). In jedem Schritt der Iteration muss ein Lineares Gleichungssystem [A σi] x = x gelöst werden. Dies geschieht am besten mit einer Zerlegungsmethode, etwa der LR-Zerlegung der Matrix. Die Zerlegung kann einmal in O(n 3 ) Operationen erstellt werden, anschließend sind in jedem Schritt der Iteration weitere O(n 2 ) Operationen für das Vorwärts- und Rückwärtseinsetzen notwendig. Die Konvergenzgeschwindigkeit der Inversen Iteration mit Shift kann durch eine gute Schätzung σ gesteigert werden. Eine weitere Verbesserung der Konvergenzgeschwindigkeit kann durch ständiges Anpassen der Schätzung σ erreicht werden. Wird in jedem Schritt die beste Approximation σ + 1/µ (i) als neue Schätzung verwendet, so kann mindestens superlineare Konvergenz erreicht werden. Hierzu wählen wir: σ (0) = σ und iterieren σ (i) = σ (i 1) + 1 µ (i). Jede Modifikation des Shifts ändert jedoch das lineare Gleichungssystem und erfordert die erneute (teure) Erstellung der LR-Zerlegung. Beispiel 4.81 (Inverse Iteration nach Wieland). Es sei: A = mit den Eigenwerten: µ 1 λ , λ 2 = 1.954, λ 3 = Wir wollen alle Eigenwerte mit der inversen Iteration bestimmen. Startwerte erhalten wir durch Analyse der Gerschgorin-Kreise: K 1 = K 0.5 (2), K 2 = K 0.2 ( 1), K 3 := K 0.3 (4). Die drei Kreise sind disjunkt und wir wählen als Shift in der Inversen Iteration σ 1 = 2, σ 2 = 1 sowie σ 3 = 4. Die Iteration wird stets mit v = (1, 1, 1) T und Normierung bezüglich der Maximumsnorm gestartet. Wir erhalten die Näherungen: σ 1 = 2 : µ (1) 1 = , µ (2) 1 = , µ (3) 1 = , µ (4) 1 = , σ 2 = 1 : µ (1) 2 = 1.840, µ (2) 2 = , µ (3) 2 = , µ (4) 2 = , σ 3 = 4 : µ (1) 3 = 6.533, µ (2) 3 = , µ (3) 3 = , µ (4) 3 = Diese Approximationen ergeben die folgenden Eigenwert-Näherungen: λ 1 = σ 1 + 1/µ (4) , λ 2 = σ 2 + 1/µ (4) , λ 3 = σ 3 + 1/µ (4) Alle drei Näherungen sind in den ersten wesentlichen Stellen exakt. 178
3 4.6 Berechnung von Eigenwerten Das Beispiel demonstriert, dass die inverse Iteration mit Shift zu einer wesentlichen Beschleunigung der Konvergenz führt, falls gute Schätzungen der Eigenwerte vorliegen Das QR-Verfahren zur Eigenwertberechnung Wir haben bereits die QR-Zerlegung einer Matrix A in eine orthogonale Matrix Q R n n sowie eine rechte obere Dreiecksmatrix R R n n kennengelernt. Das QR-Verfahren zur Berechnung der Eigenwerte von A beruht auf der folgenden Beobachtung: A = QR = QR(QQ T ) = Q(RQ)Q T, (4.13) d.h., die Matrix A ist orthogonal ähnlich zur Matrix RQ, hat also die gleichen Eigenwerte wie diese. Wir definieren: Algorithmus 4.82 (QR-Verfahren). Es sei A R n n. Ausgehend von A (1) := A iteriere für i = 1, Erstelle die QR-Zerlegung 2. Berechne A (i) =: Q (i) R (i), A (i+1) := R (i) Q (i). Das QR-Verfahren erzeugt eine Folge A (i), i 1 von Matrizen, die gemäß (4.13) alle ähnlich zur Matrix A sind. Wir werden sehen, dass die Diagonaleinträge der Folgenglieder A (i) gegen die Eigenwerte der Matrix A laufen. Satz 4.83 (QR-Verfahren zur Eigenwertberechnung). Es sei A R n n eine Matrix mit separierten Eigenwerten λ 1 > λ 2 > > λ n. Dann gilt für die Diagonalelemente a (t) ii der durch das QR-Verfahren erzeugten Matrizen A (t) : {d (t) 11,..., d(t) nn} {λ 1,..., λ n } (t ). Beweis: Für den technisch aufwändigen Beweis verweisen wir auf [9] oder [6]. Im Allgemeinen konvergieren die Diagonalelemente der Folgenglieder A (i) mindestens linear gegen die Eigenwerte. In speziellen Fällen wird jedoch sogar kubische Konvergenz erreicht. Verglichen mit der Potenzmethode und der inversen Iteration weist das QR- Verfahren daher zum einen bessere Konvergenzeigenschaften auf, gleichzeitig werden alle Eigenwerte der Matrix A bestimmt. In jedem Schritt der Iteration muss jedoch eine QR- Zerlegung der Iterationsmatrix A (i) erstellt werden. Bei allgemeiner Matrix A R n n sind hierzu O(n 3 ) arithmetische Operationen notwendig. Um die Eigenwerte mit hinreichender Genauigkeit zu approximieren sind oft sehr viele, > 100 Schritte notwendig. In 179
4 4 Numerische Lineare Algebra der praktischen Anwendung wird das QR-Verfahren daher immer in Verbindung mit einer Reduktionsmethode (siehe folgendes Kapitel) eingesetzt, bei der die Matrix A zunächst in eine einfache ähnliche Form transformiert wird. Bemerkung 4.84 (LR-Verfahren). Wie das QR-Verfahren liefert auch das LR-Verfahren: A (i) =: L (i) R (i), A (i+1) := R (i+1) L (i+1), eine Folge von Matrizen A (i), deren Diagonalelemente gegen die Eigenwerte der Matrix A konvergieren. Das LR-Verfahren zur Eigenwertberechnung konvergiert nur dann, wenn die LR-Zerlegung ohne Pivotisierung durchgeführt werden kann. Daher wird bei allgemeinen Matrizen üblicherweise das QR-Verfahren bevorzugt Reduktionsmethoden zur Eigenwertbestimmung Das Erstellen der QR-Zerlegung einer Matrix A R n n mit Hilfe von Householder- Matrizen bedarf O(n 3 ) arithmetischer Operationen, siehe Satz Da in jedem Schritt des QR-Verfahrens diese Zerlegung neu erstellt werden muss, ist dieser Aufwand zu groß. Hat die Matrix A jedoch eine spezielle Struktur, ist sie z.b. eine Bandmatrix, so kann auch die QR-Zerlegung mit weit geringerem Aufwand erstellt werden. Es gilt: Satz 4.85 (Ähnliche Matrizen). Zwei Matrizen A, B C n n heißen ähnlich, falls es eine reguläre Matrix S C n n gibt, so dass gilt: A = S 1 BS. Ähnliche Matrizen haben das gleiche charakteristische Polynom und die gleichen Eigenwerte. Zu einem Eigenwert λ sowie Eigenvektor w von A gilt: B(Sw) = S(Aw) = λsw. Ziel dieses Kapitels ist es durch Ähnlichkeitstransformationen A = A (0) A (i) = (S (i) ) 1 A (i) S (i), die Matrix A Schritt für Schritt in eine ähnliche Matrix (also mit den gleichen Eigenwerten) zu transformieren, die eine einfache Struktur hat, so dass die Eigenwerte leichter zu bestimmen, oder sogar direkt ablesbar sind. Mögliche Normalformen, bei denen die Eigenwerte unmittelbar ablesbar sind, sind die Jordan sche Normalform, die Diagonalisierung von A, oder die Schur sche Normalform: 180
5 4.6 Berechnung von Eigenwerten Definition 4.86 (Schur sche Normalform). Die Matrix A C n n habe die Eigenwerte λ 1,..., λ n (ihrer Vielfachheit gezählt). Dann existiert eine unitäre Matrix U C n n, so dass λ 1. Ū T AU = λ n Falls ĀT = A hermitesch ist, so ist Ū T AU auch hermitesch, also eine Diagonalmatrix. Die Aufgabe, eine Matrix A in eine Normalform zu transformieren, ist üblicherweise nur bei Kenntnis der Eigenwerte möglich. Dieser Weg eignet sich somit nicht zur Eigenwertberechnung. Daher werden wir im Folgenden die Reduktion der Matrix A auf eine Normalform kennenlernen, bei der die Eigenwerte zwar nicht unmittelbar abgelesen werden, die QR-Zerlegung jedoch mit sehr geringem Aufwand erstellt werden kann. Diese reduzierte Normalform dient dann als Grundlage für das QR-Verfahren zur Eigenwertberechnung. Wir definieren: Satz 4.87 (Hessenberg-Normalform). Zu jeder Matrix A R n n existiert eine orthogonale Matrix Q R n n, so dass Q T AQ = , eine Hessenberg-Matrix ist, also eine rechte obere Dreiecksmatrix, die zusätzlich eine untere Nebendiagonale besitzt. Falls A = A T symmetrisch ist, so ist Q T AQ eine Tridiagonalmatrix. Beweis: Die Konstruktion der Hessenberg-Matrix erfolgt ähnlich der QR-Zerlegung mit Householder-Transformationen. Um Ähnlichkeitstransformationen sicherzustellen müssen wir die orthogonalen Householder-Matrizen S (i) jedoch von links und rechts an die Matrix A multiplizieren. Wir beschreiben den ersten Schritt. Es seien A = (a 1,..., a n ) die Spaltenvektoren von A. Wir bestimmen den Vektor v (1) = (0, v (1) 2,..., v(1) n ) T so, dass mit S (1) = I 2v (1) (v (1) ) T gilt S (1) a 1 span(e 1, e 2 ). Hierzu wählen wir eine Householder-Transformation mit Vektor v (1) = ã1 + ã 1 e 2 ã 1 + ã 1 e 2, 181
6 4 Numerische Lineare Algebra wobei ã 1 = (0, a 21,..., a n1 ) der reduzierte erste Spaltenvektor ist. Dann gilt mit S (1) = I 2v (1) (v (1) ) T mit S (1) = (S (1) ) T : a 11 a 12 a 1n a 11 A (1) = S (1) A(S (1) ) T. = S (1) =: 0 Ã (1), Ã (1) R n 1 n Im zweiten Schritt wird das entsprechende Verfahren auf die Matrix Ã(1) angewendet. Nach n 2 Schritten erhalten wir mit Matrix A (n 2), welche Hessenberg-Gestalt hat. Q T AQ := } S (n 2) {{ S (1) } A } S (1) {{ S (n 2) } =:Q T =:Q Im Falle A = A T gilt: (Q T AQ) T = Q T A T Q = Q T AQ. D.h., auch A (n 2) ist wieder symmetrisch. Symmetrische Hessenberg-Matrizen sind Tridiagonalmatrizen. Bemerkung 4.88 (Hessenberg-Normalform). Die Transformation einer Matrix A R n n in Hessenberg-Form erfordert bei Verwendung der Householder-Transformationen 5 3 n3 + O(n 2 ) arithmetische Operationen. Im Fall symmetrischer Matrizen erfordert die Transformation in eine Tridiagonalmatrix 2 3 n3 + O(n 2 ) Operationen. Die Transformation in Hessenberg-Form benötigt demnach etwas mehr arithmetische Operationen als eine QR-Zerlegung. Im Anschluss können die QR-Zerlegungen einer Hessenberg- Matrix mit weitaus geringerem Aufwand erstellt werden. Weiter gilt, dass für die QR- Zerlegung einer Hessenberg-Matrix A gilt, dass die Matrix RQ wieder Hessenberg-Gestalt hat. Beides fasst der folgende Satz zusammen: Satz 4.89 (QR-Zerlegung von Hessenberg-Matrizen). Es sei A R n n eine Hessenberg- Matrix. Dann kann die QR-Zerlegung A = QR mit Householder-Transformationen in 2n 2 + O(n) arithmetische Operationen durchgeführt werden. Die Matrix RQ hat wieder Hessenberg-Gestalt. Beweis: Es gilt a ij = 0 für i > j +1. Wir zeigen, dass induktiv, dass diese Eigenschaft für alle Matrizen A (i) gilt, die im Laufe der QR-Zerlegung entstehen. Zunächst folgt im ersten Schritt für v (1) = a 1 + a 1 e 1 hieraus v (1) k = 0 für alle k > 2. Die neuen Spaltenvektoren berechnen sich zu: a (1) i = a i (a i, v (1) )v (1). (4.14) 182
7 4.6 Berechnung von Eigenwerten Da v (1) k = 0 für k < 2 gilt (a (1) i ) k = 0 für k > i + 1, d.h. A (1) hat wieder Hessenberg-Form. Diese Eigenschaft gilt induktiv für i = 2,..., n 1. Da der (reduzierte) Vektor ṽ (i) in jedem Schritt nur zwei von Null verschiedene Einträge hat, kann dieser in 4 Operationen erstellt werden. Die Berechnung der n i neuen Spaltenvektoren gemäß (4.14) bedarf je 4 arithmetischer Operationen. Insgesamt ergibt sich ein Aufwand von n 1 i= (n i) = 2n 2 + O(n). Es bleibt (als Übung) die Hessenberg-Gestalt der Matrix A := RQ nachzuweisen. In Verbindung mit der Reduktion auf Hessenberg, bzw. auf Tridiagonalgestalt ist das QR- Verfahren eines der effizientesten Verfahren zur Berechnung von Eigenwerten einer Matrix A R n n. Die QR-Zerlegung kann in O(n 2 ) Operationen durchgeführt werden, und im Laufe des QR-Verfahrens entstehen ausschließlich Hessenberg-Matrizen. Die Konvergenz des QR-Verfahrens hängt von der Separation der Eigenwerte λ i / λ i+1 ab. Je weiter die Eigenwerte voneinander entfernt sind, umso besser konvergiert das Verfahren. Im allgemeinen kann lineare Konvergenz gezeigt werden. In speziellen Fällen kann jedoch sogar kubische Konvergenz der Diagonalelemente A (t) ii gegen die Eigenwerte gezeigt werden. Wie die Inverse Iteration kann das QR-Verfahren durch Einführen eines Shifts beschleunigt werden. Mit Koeffizienten µ i wird die Iteration ersetzt durch die Vorschrift: A (i 1) µ i I = Q (i) R (i), A (i) := R (i) Q (i) + µ i I. Abschließend betrachten wir hierzu ein Beispiel: Beispiel 4.90 (Eigenwert-Berechnung mit Reduktion und QR-Verfahren). Wir betrachten die Matrix A Die Matrix A ist symmetrisch und hat die Eigenwerte: λ , λ , λ , λ Schritt 1: Reduktion auf Hessenberg- (Tridiagonal)-Gestalt. Im ersten Reduktionsschritt wählen wir mit ã 1 = (0, 20, 90, 32) den Spiegelungsvektor v (1) als: v (1) = ã1 + ã 1 e 2 ã 1 + ã 1 e
8 4 Numerische Lineare Algebra Wir erhalten mit S (1) := I 2v (1) (v (1) ) T : A (1) = S (1) AS (1) Mit ã (1) 2 = (0, 0, , ) T und v (2) = ã2 + ã 2 e 3 ã 2 + ã 2 e 3 folgt mit S (2) := I 2v (2) (v (2) ) T : H := A (2) = S (2) A (1) S (2) Die Matrix H hat nun Tridiagonalgestalt. Alle Transformationen waren Ähnlichkeitstransformationen. Daher haben H und A die gleichen Eigenwerte. Schritt 2: QR-Verfahren Wir führen nun einige Schritte des QR-Verfahrens durch, verzichten dabei auf die Zwischenschritte zum Erstellen der QR-Zerlegung. Es sei A (1) := H. Dann ist: A (1) = Q (1) R (1) A (2) = R (1) Q (1) A (2) = Q (2) R (2) A (3) = R (2) Q (2) A (3) = Q (3) R (3) A (4) = R (3) Q (3) A (4) = Q (4) R (4) A (5) = R (4) Q (4) A (9) = Q (9) R (9) A (10) = R (9) Q (9)
9 4.6 Berechnung von Eigenwerten Für die Diagonalelemente gilt: a (10) , a (10) , a (10) , a (10) Diese Diagonalelemente stellen sehr gute Näherungen an alle Eigenwerte der Matrix A dar: a (10) 11 λ , λ 1 a (10) 22 λ , λ 2 a (10) 33 λ , λ 3 a (10) 44 λ λ 4 185
10 4 Numerische Lineare Algebra 186
20 Kapitel 2: Eigenwertprobleme
20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die
Mehr46 Eigenwerte und Eigenvektoren symmetrischer Matrizen
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über
MehrMC-Serie 11: Eigenwerte
D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
Mehr45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrVorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen
Vorlesung, 26. Mai 2011, Inhalt Eigenwerte und Eigenvektoren Gewöhnliche Differentialgleichungen 1 Eigenwerte und Eigenvektoren Es sei A eine n n-matrix, x ein vom Nullvektor verschiedener Vektor und λ
Mehr4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrKlausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der
MehrNumerische Mathematik für Ingenieure und Physiker
Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
MehrA H := A T, Die Eigenwerte von A sind genau die Nullstellen des charakteristischen Polynoms
Kapitel 9 Eigenwertprobleme Im folgenden betrachten wir quadratische Matrizen A K n n mit Elementen aus K = R oder C Die Zahl λ C ist Eigenwert von A, wenn ein Vektor x C n, x 0, existiert mit der Eigenschaft
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
Mehr4.2.3 LR-Zerlegung für diagonaldominante Matrizen
4.2 Lösungsmethoden für lineare Gleichungssysteme 4.2.3 LR-Zerlegung für diagonaldominante Matrizen Satz 4.28 besagt, dass die LR-Zerlegung für beliebige reguläre Matrizen mit Pivotierung möglich ist.
MehrBerechnung von Eigenwerten und Eigenvektoren
Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrMathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrDas symmetrische Eigenwertproblem
Kapitel 2 Das symmetrische Eigenwertproblem 2 Mit diesem Kapitel wenden wir uns der numerischen linearen Algebra zu. Konkret geht es um die Lösung des algebraischen Eigenwertproblems Ax = λx, wobei symmetrische
Mehr3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrWir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems
Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrBeginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
Mehr4.4 Orthogonalisierungsverfahren und die QR-Zerlegung
4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,
MehrDie Top 10 der Algorithmen Der QR-Algorithmus
Die Top 10 der Algorithmen Der QR-Algorithmus Hans Hansen TU Chemnitz WS 04/05 17. Januar 2005 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Geschichte 3 2 Die Grundidee 3 3 Ähnlichkeitstransformationen
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n
MehrEinführung in die Vektor- und Matrizenrechnung. Matrizen
Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:
MehrKapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung
Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter
MehrQuadratische Matrizen Inverse und Determinante
Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen
MehrLineare Algebra II 6. Übungsblatt
Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der
MehrDas QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.
Das QZ-Verfahren Bachelor-Arbeit im 1-Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt von Janina Gnutzmann Erstgutachter:
MehrLineare Algebra. Teil III. Inhaltsangabe
Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrLösungsskizzen zur Klausur
sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie
MehrSkript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014
Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................
MehrKapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
MehrIn diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
MehrMat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1
Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrNumerische Behandlung des Eigenwertproblems
Numerische Behandlung des Eigenwertproblems Zusammenfassung Das Ziel dieses Vortrages ist, zwei gute Methoden für die numerische Bestimmung der Eigenwerte zu zeigen und wie man diese mit Matlab anwenden
MehrLineare Algebra II, Lösungshinweise Blatt 9
Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
MehrLineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.
Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:
MehrErweiterte Koordinaten
Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
MehrCopyright, Page 1 of 5 Die Determinante
wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist
MehrMathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11
Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)
MehrA2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
MehrMathematische Erfrischungen III - Vektoren und Matrizen
Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen
MehrD-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9
D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski Serie 9 Best Before: 24.5/25.5, in den Übungsgruppen (2 wochen) Koordinatoren: Alexander Dabrowski, HG G 52.1, alexander.dabrowski@sam.math.ethz.ch
Mehr3.3 Klassifikation quadratischer Formen auf R n
3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen
MehrZusammenfassung zu Numerische Mathematik I
Sara Adams Zusammenfassung zu Numerik I - WS 003/04 Inhaltsverzeichnis Zusammenfassung zu Numerische Mathematik I Sara Adams 11. August 004 Diese Zusammenfassung basiert auf der Vorlesung Numerische Mathematik
MehrIterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
MehrQR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.
20.0.2011 Inhaltsverzeichnis 1 2 3 4 1 2 3 4 der Matrix A R mxn, m n A = Q R Matrix Q: Q R nxn orthogonale Matrix (Spalten paarweise orthogonal) Q Q T = E Matrix R: R R mxn obere Dreiecksmatrix r 11 r
MehrProf. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1
Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrSpezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:
Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es
MehrDefinitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht
Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben
Mehralso ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges
11. Kompakte Operatoren Seien X, Y Banachräume, und sei T : X Y ein linearer Operator. Definition 11.1. T heißt kompakt, enn T (B) eine kompakte Teilmenge von Y ist für alle beschränkten Mengen B X. Wir
MehrEine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls
Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv
MehrMusterlösungen zur Linearen Algebra II Übungsklausur
Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,
MehrKap 5: Rang, Koordinatentransformationen
Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv
Mehr5 Potenzreihenansatz und spezielle Funktionen
5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten
MehrMATTHIAS GERDTS NUMERISCHE MATHEMATIK II. Universität Würzburg SoSe 2010
MATTHIAS GERDTS NUMERISCHE MATHEMATIK II Universität Würzburg SoSe 010 Addresse des Authors: Matthias Gerdts Institut für Mathematik Universität Würzburg Am Hubland 97074 Würzburg E-Mail: gerdts@mathematik.uni-wuerzburg.de
MehrLineare Algebra II 5. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,
Mehr1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.
Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrIterative Verfahren zur Lösung von Linearen Gleichungssystemen
Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier
MehrKlausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg WS 7/8 Institut für Numerische Simulation Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 7. März 8 Sie haben 9 Minuten Zeit zum Bearbeiten
Mehr2 Normen und Konditionszahl. 3 Innere Produkte. 2.3 Konditionszahl (S. 12) 2.1 Vektornorm (S. 8) 2.2 Matrixnorm (S. 9) Lineare Algebra 2. Definition.
1 Matrizen 11 Matrixoperationen Adjungierte Matrix A = A t Spur tr A (A + B) = A + B (αa) = αa (AB) = B A (A ) = A tr(a + B) = tr(b + A) tr(ab) = tr(ba) tr(a) = tr(a t ) tr(b 1 AB) = tr(a), falls B regulär
Mehr6 Symmetrische und hermitesche Matrizen
$Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind
MehrLösungen Serie 6 (Vektorräume, Skalarprodukt)
Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9
Mehr11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
Mehr1.9 Eigenwerte und Eigenvektoren
.9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrStichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016
Stichwortliste zur Vorlesung Lineare Algebra II Gabriela Weitze-Schmithüsen Saarbrücken, Sommersemester 2016 Kapitel I Jordansche Normalform Ziel: Wir möchten Matrizen bis aus Ähnlichkeit klassifizieren.
Mehr6.3 Hauptachsentransformation
Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die
MehrAlgorithmus zur Berechnung der Jordannormalform
Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................
MehrGliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
MehrÜbungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.
Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =
MehrKLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG
KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter
MehrKapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)
Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung
Mehr9 Vektorräume mit Skalarprodukt
9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden
MehrLINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow
LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9
Mehr