4.6 Berechnung von Eigenwerten

Größe: px
Ab Seite anzeigen:

Download "4.6 Berechnung von Eigenwerten"

Transkript

1 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind. Eine einfache Erweiterung der Potenzmethode ist die Inverse Iteration nach Wieland zur Berechnung des kleinsten Eigenwerts einer Matrix. Zur Herleitung verwenden wir die Tatsache, dass zu einem Eigenwert λ einer regulären Matrix A R n n durch λ 1 ein Eigenwert der inversen Matrix A 1 R n n gegeben ist: Aw = λ(a)w A 1 w = λ(a) 1 w =: λ(a 1 )w. Die Potenzmethode, angewendet auf die inverse Matrix liefert den betragsgrößten Eigenwert λ max (A 1 ) von A 1. Der Kehrwert dieses Eigenwertes ist der betragskleinste Eigenwert der Matrix A selbst λ min (A) = λ max (A 1 ) 1. Dieses Prinzip kann weiter verallgemeinert werden. Dazu sei λ(a) ein Eigenwert mit zugehörigem Eigenvektor w R n von A und σ C eine beliebige komplexe Zahl (jedoch kein Eigenwert von A). Dann gilt: (A σi)w = (λ(a) σ)w = λ(a σi)w [A σi] 1 w = λ([a σi] 1 )w. Die Anwendung der Potenzmethode auf die Matrix [A σi] 1 liefert nach vorangestellter Überlegung den betragskleinsten Eigenwert der Matrix [A σi], d.h. den Eigenwert von A, der σ am nächsten liegt. Liegen nun Schätzungen für die Eigenwerte der Matrix A vor, so können die genauen Werte mit der Inversen Iteration bestimmt werden. Die Gerschgorin- Kreise liefern oft einen guten Anhaltspunkt für σ. Satz 4.80 (Inverse Iteration mit Shift). Es sei A R n n eine reguläre Matrix. Es sei σ C. Für die Eigenwerte λ i von A gelte: 0 < λ 1 σ < λ 2 σ λ n σ. Es sei x (0) R n ein geeigneter normierter Startwert. Für i = 1, 2,... konvergiert die Iteration [A σi] x (i) = x (i 1), x (i) := x(i) x (i), µ(i) := x(i) k x (i 1) k für jeden Index k {1,..., n} gegen den Eigenwert λ 1 von A: ( λ 1 λ (i) λ 1 σ i) = O. λ 2 σ, λ (i) := σ + (µ (i) ) 1, Beweis: Der Beweis ist eine einfache Folgerung aus Satz Falls σ kein Eigenwert von A ist, so ist B := A σi invertierbar. Die Matrix B 1 hat die Eigenwerte µ 1,..., µ n, mit Für diese gilt nach Voraussetzung: µ i = (λ i σ) 1 λ i = µ 1 i + σ. (4.12) µ 1 > µ 2 µ n >

2 4 Numerische Lineare Algebra Die Potenzmethode, Satz 4.77, angewandt auf die Matrix B 1 liefert eine Approximation für µ 1 : ( µ (i) µ 2 i) µ 1 = O. Die gewünschte Aussage folgt mit (4.12). In jedem Schritt der Iteration muss ein Lineares Gleichungssystem [A σi] x = x gelöst werden. Dies geschieht am besten mit einer Zerlegungsmethode, etwa der LR-Zerlegung der Matrix. Die Zerlegung kann einmal in O(n 3 ) Operationen erstellt werden, anschließend sind in jedem Schritt der Iteration weitere O(n 2 ) Operationen für das Vorwärts- und Rückwärtseinsetzen notwendig. Die Konvergenzgeschwindigkeit der Inversen Iteration mit Shift kann durch eine gute Schätzung σ gesteigert werden. Eine weitere Verbesserung der Konvergenzgeschwindigkeit kann durch ständiges Anpassen der Schätzung σ erreicht werden. Wird in jedem Schritt die beste Approximation σ + 1/µ (i) als neue Schätzung verwendet, so kann mindestens superlineare Konvergenz erreicht werden. Hierzu wählen wir: σ (0) = σ und iterieren σ (i) = σ (i 1) + 1 µ (i). Jede Modifikation des Shifts ändert jedoch das lineare Gleichungssystem und erfordert die erneute (teure) Erstellung der LR-Zerlegung. Beispiel 4.81 (Inverse Iteration nach Wieland). Es sei: A = mit den Eigenwerten: µ 1 λ , λ 2 = 1.954, λ 3 = Wir wollen alle Eigenwerte mit der inversen Iteration bestimmen. Startwerte erhalten wir durch Analyse der Gerschgorin-Kreise: K 1 = K 0.5 (2), K 2 = K 0.2 ( 1), K 3 := K 0.3 (4). Die drei Kreise sind disjunkt und wir wählen als Shift in der Inversen Iteration σ 1 = 2, σ 2 = 1 sowie σ 3 = 4. Die Iteration wird stets mit v = (1, 1, 1) T und Normierung bezüglich der Maximumsnorm gestartet. Wir erhalten die Näherungen: σ 1 = 2 : µ (1) 1 = , µ (2) 1 = , µ (3) 1 = , µ (4) 1 = , σ 2 = 1 : µ (1) 2 = 1.840, µ (2) 2 = , µ (3) 2 = , µ (4) 2 = , σ 3 = 4 : µ (1) 3 = 6.533, µ (2) 3 = , µ (3) 3 = , µ (4) 3 = Diese Approximationen ergeben die folgenden Eigenwert-Näherungen: λ 1 = σ 1 + 1/µ (4) , λ 2 = σ 2 + 1/µ (4) , λ 3 = σ 3 + 1/µ (4) Alle drei Näherungen sind in den ersten wesentlichen Stellen exakt. 178

3 4.6 Berechnung von Eigenwerten Das Beispiel demonstriert, dass die inverse Iteration mit Shift zu einer wesentlichen Beschleunigung der Konvergenz führt, falls gute Schätzungen der Eigenwerte vorliegen Das QR-Verfahren zur Eigenwertberechnung Wir haben bereits die QR-Zerlegung einer Matrix A in eine orthogonale Matrix Q R n n sowie eine rechte obere Dreiecksmatrix R R n n kennengelernt. Das QR-Verfahren zur Berechnung der Eigenwerte von A beruht auf der folgenden Beobachtung: A = QR = QR(QQ T ) = Q(RQ)Q T, (4.13) d.h., die Matrix A ist orthogonal ähnlich zur Matrix RQ, hat also die gleichen Eigenwerte wie diese. Wir definieren: Algorithmus 4.82 (QR-Verfahren). Es sei A R n n. Ausgehend von A (1) := A iteriere für i = 1, Erstelle die QR-Zerlegung 2. Berechne A (i) =: Q (i) R (i), A (i+1) := R (i) Q (i). Das QR-Verfahren erzeugt eine Folge A (i), i 1 von Matrizen, die gemäß (4.13) alle ähnlich zur Matrix A sind. Wir werden sehen, dass die Diagonaleinträge der Folgenglieder A (i) gegen die Eigenwerte der Matrix A laufen. Satz 4.83 (QR-Verfahren zur Eigenwertberechnung). Es sei A R n n eine Matrix mit separierten Eigenwerten λ 1 > λ 2 > > λ n. Dann gilt für die Diagonalelemente a (t) ii der durch das QR-Verfahren erzeugten Matrizen A (t) : {d (t) 11,..., d(t) nn} {λ 1,..., λ n } (t ). Beweis: Für den technisch aufwändigen Beweis verweisen wir auf [9] oder [6]. Im Allgemeinen konvergieren die Diagonalelemente der Folgenglieder A (i) mindestens linear gegen die Eigenwerte. In speziellen Fällen wird jedoch sogar kubische Konvergenz erreicht. Verglichen mit der Potenzmethode und der inversen Iteration weist das QR- Verfahren daher zum einen bessere Konvergenzeigenschaften auf, gleichzeitig werden alle Eigenwerte der Matrix A bestimmt. In jedem Schritt der Iteration muss jedoch eine QR- Zerlegung der Iterationsmatrix A (i) erstellt werden. Bei allgemeiner Matrix A R n n sind hierzu O(n 3 ) arithmetische Operationen notwendig. Um die Eigenwerte mit hinreichender Genauigkeit zu approximieren sind oft sehr viele, > 100 Schritte notwendig. In 179

4 4 Numerische Lineare Algebra der praktischen Anwendung wird das QR-Verfahren daher immer in Verbindung mit einer Reduktionsmethode (siehe folgendes Kapitel) eingesetzt, bei der die Matrix A zunächst in eine einfache ähnliche Form transformiert wird. Bemerkung 4.84 (LR-Verfahren). Wie das QR-Verfahren liefert auch das LR-Verfahren: A (i) =: L (i) R (i), A (i+1) := R (i+1) L (i+1), eine Folge von Matrizen A (i), deren Diagonalelemente gegen die Eigenwerte der Matrix A konvergieren. Das LR-Verfahren zur Eigenwertberechnung konvergiert nur dann, wenn die LR-Zerlegung ohne Pivotisierung durchgeführt werden kann. Daher wird bei allgemeinen Matrizen üblicherweise das QR-Verfahren bevorzugt Reduktionsmethoden zur Eigenwertbestimmung Das Erstellen der QR-Zerlegung einer Matrix A R n n mit Hilfe von Householder- Matrizen bedarf O(n 3 ) arithmetischer Operationen, siehe Satz Da in jedem Schritt des QR-Verfahrens diese Zerlegung neu erstellt werden muss, ist dieser Aufwand zu groß. Hat die Matrix A jedoch eine spezielle Struktur, ist sie z.b. eine Bandmatrix, so kann auch die QR-Zerlegung mit weit geringerem Aufwand erstellt werden. Es gilt: Satz 4.85 (Ähnliche Matrizen). Zwei Matrizen A, B C n n heißen ähnlich, falls es eine reguläre Matrix S C n n gibt, so dass gilt: A = S 1 BS. Ähnliche Matrizen haben das gleiche charakteristische Polynom und die gleichen Eigenwerte. Zu einem Eigenwert λ sowie Eigenvektor w von A gilt: B(Sw) = S(Aw) = λsw. Ziel dieses Kapitels ist es durch Ähnlichkeitstransformationen A = A (0) A (i) = (S (i) ) 1 A (i) S (i), die Matrix A Schritt für Schritt in eine ähnliche Matrix (also mit den gleichen Eigenwerten) zu transformieren, die eine einfache Struktur hat, so dass die Eigenwerte leichter zu bestimmen, oder sogar direkt ablesbar sind. Mögliche Normalformen, bei denen die Eigenwerte unmittelbar ablesbar sind, sind die Jordan sche Normalform, die Diagonalisierung von A, oder die Schur sche Normalform: 180

5 4.6 Berechnung von Eigenwerten Definition 4.86 (Schur sche Normalform). Die Matrix A C n n habe die Eigenwerte λ 1,..., λ n (ihrer Vielfachheit gezählt). Dann existiert eine unitäre Matrix U C n n, so dass λ 1. Ū T AU = λ n Falls ĀT = A hermitesch ist, so ist Ū T AU auch hermitesch, also eine Diagonalmatrix. Die Aufgabe, eine Matrix A in eine Normalform zu transformieren, ist üblicherweise nur bei Kenntnis der Eigenwerte möglich. Dieser Weg eignet sich somit nicht zur Eigenwertberechnung. Daher werden wir im Folgenden die Reduktion der Matrix A auf eine Normalform kennenlernen, bei der die Eigenwerte zwar nicht unmittelbar abgelesen werden, die QR-Zerlegung jedoch mit sehr geringem Aufwand erstellt werden kann. Diese reduzierte Normalform dient dann als Grundlage für das QR-Verfahren zur Eigenwertberechnung. Wir definieren: Satz 4.87 (Hessenberg-Normalform). Zu jeder Matrix A R n n existiert eine orthogonale Matrix Q R n n, so dass Q T AQ = , eine Hessenberg-Matrix ist, also eine rechte obere Dreiecksmatrix, die zusätzlich eine untere Nebendiagonale besitzt. Falls A = A T symmetrisch ist, so ist Q T AQ eine Tridiagonalmatrix. Beweis: Die Konstruktion der Hessenberg-Matrix erfolgt ähnlich der QR-Zerlegung mit Householder-Transformationen. Um Ähnlichkeitstransformationen sicherzustellen müssen wir die orthogonalen Householder-Matrizen S (i) jedoch von links und rechts an die Matrix A multiplizieren. Wir beschreiben den ersten Schritt. Es seien A = (a 1,..., a n ) die Spaltenvektoren von A. Wir bestimmen den Vektor v (1) = (0, v (1) 2,..., v(1) n ) T so, dass mit S (1) = I 2v (1) (v (1) ) T gilt S (1) a 1 span(e 1, e 2 ). Hierzu wählen wir eine Householder-Transformation mit Vektor v (1) = ã1 + ã 1 e 2 ã 1 + ã 1 e 2, 181

6 4 Numerische Lineare Algebra wobei ã 1 = (0, a 21,..., a n1 ) der reduzierte erste Spaltenvektor ist. Dann gilt mit S (1) = I 2v (1) (v (1) ) T mit S (1) = (S (1) ) T : a 11 a 12 a 1n a 11 A (1) = S (1) A(S (1) ) T. = S (1) =: 0 Ã (1), Ã (1) R n 1 n Im zweiten Schritt wird das entsprechende Verfahren auf die Matrix Ã(1) angewendet. Nach n 2 Schritten erhalten wir mit Matrix A (n 2), welche Hessenberg-Gestalt hat. Q T AQ := } S (n 2) {{ S (1) } A } S (1) {{ S (n 2) } =:Q T =:Q Im Falle A = A T gilt: (Q T AQ) T = Q T A T Q = Q T AQ. D.h., auch A (n 2) ist wieder symmetrisch. Symmetrische Hessenberg-Matrizen sind Tridiagonalmatrizen. Bemerkung 4.88 (Hessenberg-Normalform). Die Transformation einer Matrix A R n n in Hessenberg-Form erfordert bei Verwendung der Householder-Transformationen 5 3 n3 + O(n 2 ) arithmetische Operationen. Im Fall symmetrischer Matrizen erfordert die Transformation in eine Tridiagonalmatrix 2 3 n3 + O(n 2 ) Operationen. Die Transformation in Hessenberg-Form benötigt demnach etwas mehr arithmetische Operationen als eine QR-Zerlegung. Im Anschluss können die QR-Zerlegungen einer Hessenberg- Matrix mit weitaus geringerem Aufwand erstellt werden. Weiter gilt, dass für die QR- Zerlegung einer Hessenberg-Matrix A gilt, dass die Matrix RQ wieder Hessenberg-Gestalt hat. Beides fasst der folgende Satz zusammen: Satz 4.89 (QR-Zerlegung von Hessenberg-Matrizen). Es sei A R n n eine Hessenberg- Matrix. Dann kann die QR-Zerlegung A = QR mit Householder-Transformationen in 2n 2 + O(n) arithmetische Operationen durchgeführt werden. Die Matrix RQ hat wieder Hessenberg-Gestalt. Beweis: Es gilt a ij = 0 für i > j +1. Wir zeigen, dass induktiv, dass diese Eigenschaft für alle Matrizen A (i) gilt, die im Laufe der QR-Zerlegung entstehen. Zunächst folgt im ersten Schritt für v (1) = a 1 + a 1 e 1 hieraus v (1) k = 0 für alle k > 2. Die neuen Spaltenvektoren berechnen sich zu: a (1) i = a i (a i, v (1) )v (1). (4.14) 182

7 4.6 Berechnung von Eigenwerten Da v (1) k = 0 für k < 2 gilt (a (1) i ) k = 0 für k > i + 1, d.h. A (1) hat wieder Hessenberg-Form. Diese Eigenschaft gilt induktiv für i = 2,..., n 1. Da der (reduzierte) Vektor ṽ (i) in jedem Schritt nur zwei von Null verschiedene Einträge hat, kann dieser in 4 Operationen erstellt werden. Die Berechnung der n i neuen Spaltenvektoren gemäß (4.14) bedarf je 4 arithmetischer Operationen. Insgesamt ergibt sich ein Aufwand von n 1 i= (n i) = 2n 2 + O(n). Es bleibt (als Übung) die Hessenberg-Gestalt der Matrix A := RQ nachzuweisen. In Verbindung mit der Reduktion auf Hessenberg, bzw. auf Tridiagonalgestalt ist das QR- Verfahren eines der effizientesten Verfahren zur Berechnung von Eigenwerten einer Matrix A R n n. Die QR-Zerlegung kann in O(n 2 ) Operationen durchgeführt werden, und im Laufe des QR-Verfahrens entstehen ausschließlich Hessenberg-Matrizen. Die Konvergenz des QR-Verfahrens hängt von der Separation der Eigenwerte λ i / λ i+1 ab. Je weiter die Eigenwerte voneinander entfernt sind, umso besser konvergiert das Verfahren. Im allgemeinen kann lineare Konvergenz gezeigt werden. In speziellen Fällen kann jedoch sogar kubische Konvergenz der Diagonalelemente A (t) ii gegen die Eigenwerte gezeigt werden. Wie die Inverse Iteration kann das QR-Verfahren durch Einführen eines Shifts beschleunigt werden. Mit Koeffizienten µ i wird die Iteration ersetzt durch die Vorschrift: A (i 1) µ i I = Q (i) R (i), A (i) := R (i) Q (i) + µ i I. Abschließend betrachten wir hierzu ein Beispiel: Beispiel 4.90 (Eigenwert-Berechnung mit Reduktion und QR-Verfahren). Wir betrachten die Matrix A Die Matrix A ist symmetrisch und hat die Eigenwerte: λ , λ , λ , λ Schritt 1: Reduktion auf Hessenberg- (Tridiagonal)-Gestalt. Im ersten Reduktionsschritt wählen wir mit ã 1 = (0, 20, 90, 32) den Spiegelungsvektor v (1) als: v (1) = ã1 + ã 1 e 2 ã 1 + ã 1 e

8 4 Numerische Lineare Algebra Wir erhalten mit S (1) := I 2v (1) (v (1) ) T : A (1) = S (1) AS (1) Mit ã (1) 2 = (0, 0, , ) T und v (2) = ã2 + ã 2 e 3 ã 2 + ã 2 e 3 folgt mit S (2) := I 2v (2) (v (2) ) T : H := A (2) = S (2) A (1) S (2) Die Matrix H hat nun Tridiagonalgestalt. Alle Transformationen waren Ähnlichkeitstransformationen. Daher haben H und A die gleichen Eigenwerte. Schritt 2: QR-Verfahren Wir führen nun einige Schritte des QR-Verfahrens durch, verzichten dabei auf die Zwischenschritte zum Erstellen der QR-Zerlegung. Es sei A (1) := H. Dann ist: A (1) = Q (1) R (1) A (2) = R (1) Q (1) A (2) = Q (2) R (2) A (3) = R (2) Q (2) A (3) = Q (3) R (3) A (4) = R (3) Q (3) A (4) = Q (4) R (4) A (5) = R (4) Q (4) A (9) = Q (9) R (9) A (10) = R (9) Q (9)

9 4.6 Berechnung von Eigenwerten Für die Diagonalelemente gilt: a (10) , a (10) , a (10) , a (10) Diese Diagonalelemente stellen sehr gute Näherungen an alle Eigenwerte der Matrix A dar: a (10) 11 λ , λ 1 a (10) 22 λ , λ 2 a (10) 33 λ , λ 3 a (10) 44 λ λ 4 185

10 4 Numerische Lineare Algebra 186

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen

Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen Vorlesung, 26. Mai 2011, Inhalt Eigenwerte und Eigenvektoren Gewöhnliche Differentialgleichungen 1 Eigenwerte und Eigenvektoren Es sei A eine n n-matrix, x ein vom Nullvektor verschiedener Vektor und λ

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

A H := A T, Die Eigenwerte von A sind genau die Nullstellen des charakteristischen Polynoms

A H := A T, Die Eigenwerte von A sind genau die Nullstellen des charakteristischen Polynoms Kapitel 9 Eigenwertprobleme Im folgenden betrachten wir quadratische Matrizen A K n n mit Elementen aus K = R oder C Die Zahl λ C ist Eigenwert von A, wenn ein Vektor x C n, x 0, existiert mit der Eigenschaft

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

4.2.3 LR-Zerlegung für diagonaldominante Matrizen

4.2.3 LR-Zerlegung für diagonaldominante Matrizen 4.2 Lösungsmethoden für lineare Gleichungssysteme 4.2.3 LR-Zerlegung für diagonaldominante Matrizen Satz 4.28 besagt, dass die LR-Zerlegung für beliebige reguläre Matrizen mit Pivotierung möglich ist.

Mehr

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Das symmetrische Eigenwertproblem

Das symmetrische Eigenwertproblem Kapitel 2 Das symmetrische Eigenwertproblem 2 Mit diesem Kapitel wenden wir uns der numerischen linearen Algebra zu. Konkret geht es um die Lösung des algebraischen Eigenwertproblems Ax = λx, wobei symmetrische

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung 4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,

Mehr

Die Top 10 der Algorithmen Der QR-Algorithmus

Die Top 10 der Algorithmen Der QR-Algorithmus Die Top 10 der Algorithmen Der QR-Algorithmus Hans Hansen TU Chemnitz WS 04/05 17. Januar 2005 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Geschichte 3 2 Die Grundidee 3 3 Ähnlichkeitstransformationen

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

Quadratische Matrizen Inverse und Determinante

Quadratische Matrizen Inverse und Determinante Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math. Das QZ-Verfahren Bachelor-Arbeit im 1-Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt von Janina Gnutzmann Erstgutachter:

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lösungsskizzen zur Klausur

Lösungsskizzen zur Klausur sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie

Mehr

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014 Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1 Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Numerische Behandlung des Eigenwertproblems

Numerische Behandlung des Eigenwertproblems Numerische Behandlung des Eigenwertproblems Zusammenfassung Das Ziel dieses Vortrages ist, zwei gute Methoden für die numerische Bestimmung der Eigenwerte zu zeigen und wie man diese mit Matlab anwenden

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Copyright, Page 1 of 5 Die Determinante

Copyright, Page 1 of 5 Die Determinante wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist

Mehr

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11 Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9 D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski Serie 9 Best Before: 24.5/25.5, in den Übungsgruppen (2 wochen) Koordinatoren: Alexander Dabrowski, HG G 52.1, alexander.dabrowski@sam.math.ethz.ch

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr

Zusammenfassung zu Numerische Mathematik I

Zusammenfassung zu Numerische Mathematik I Sara Adams Zusammenfassung zu Numerik I - WS 003/04 Inhaltsverzeichnis Zusammenfassung zu Numerische Mathematik I Sara Adams 11. August 004 Diese Zusammenfassung basiert auf der Vorlesung Numerische Mathematik

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung. 20.0.2011 Inhaltsverzeichnis 1 2 3 4 1 2 3 4 der Matrix A R mxn, m n A = Q R Matrix Q: Q R nxn orthogonale Matrix (Spalten paarweise orthogonal) Q Q T = E Matrix R: R R mxn obere Dreiecksmatrix r 11 r

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

also ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges

also ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges 11. Kompakte Operatoren Seien X, Y Banachräume, und sei T : X Y ein linearer Operator. Definition 11.1. T heißt kompakt, enn T (B) eine kompakte Teilmenge von Y ist für alle beschränkten Mengen B X. Wir

Mehr

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Kap 5: Rang, Koordinatentransformationen

Kap 5: Rang, Koordinatentransformationen Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

MATTHIAS GERDTS NUMERISCHE MATHEMATIK II. Universität Würzburg SoSe 2010

MATTHIAS GERDTS NUMERISCHE MATHEMATIK II. Universität Würzburg SoSe 2010 MATTHIAS GERDTS NUMERISCHE MATHEMATIK II Universität Würzburg SoSe 010 Addresse des Authors: Matthias Gerdts Institut für Mathematik Universität Würzburg Am Hubland 97074 Würzburg E-Mail: gerdts@mathematik.uni-wuerzburg.de

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2. Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg WS 7/8 Institut für Numerische Simulation Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 7. März 8 Sie haben 9 Minuten Zeit zum Bearbeiten

Mehr

2 Normen und Konditionszahl. 3 Innere Produkte. 2.3 Konditionszahl (S. 12) 2.1 Vektornorm (S. 8) 2.2 Matrixnorm (S. 9) Lineare Algebra 2. Definition.

2 Normen und Konditionszahl. 3 Innere Produkte. 2.3 Konditionszahl (S. 12) 2.1 Vektornorm (S. 8) 2.2 Matrixnorm (S. 9) Lineare Algebra 2. Definition. 1 Matrizen 11 Matrixoperationen Adjungierte Matrix A = A t Spur tr A (A + B) = A + B (αa) = αa (AB) = B A (A ) = A tr(a + B) = tr(b + A) tr(ab) = tr(ba) tr(a) = tr(a t ) tr(b 1 AB) = tr(a), falls B regulär

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016 Stichwortliste zur Vorlesung Lineare Algebra II Gabriela Weitze-Schmithüsen Saarbrücken, Sommersemester 2016 Kapitel I Jordansche Normalform Ziel: Wir möchten Matrizen bis aus Ähnlichkeit klassifizieren.

Mehr

6.3 Hauptachsentransformation

6.3 Hauptachsentransformation Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die

Mehr

Algorithmus zur Berechnung der Jordannormalform

Algorithmus zur Berechnung der Jordannormalform Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr