QR-Algorithmus Praktische Anwendung auf reelle und komplexe Eigenwerte

Größe: px
Ab Seite anzeigen:

Download "QR-Algorithmus Praktische Anwendung auf reelle und komplexe Eigenwerte"

Transkript

1 QR-Algorithmus Praktische Anwendung auf reelle und komplexe Eigenwerte Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann von Niklas Fischer 1

2 In diesem Vortrag werde ich die praktische Durchführung des QR-Algorithmus behandeln. Dabei verfolgen wir das Ziel, alle Eigenwerte einer, im Allgemeinen großen, reellen Matrix A numerisch zu berechnen. Der QR-Algorithmus von Francis hat nun die folgende Form: Zu einer gegebenen Ausgangsmatrix A werde durch A =: H 1 ; H k = Q k R k ; H k+1 = R k Q k ; k = 1; 2; ::: (1) eine Folge ähnlicher Matrizen festgelegt. Die Ähnlichkeit ergibt sich leicht aus der Feststellung: H k = Q k R k, Q 1 H k = R k H k+1 = R k Q k = Q 1 H k Q k Wie wir bereits wissen, wäre es ein unnötiger Aufwand, dieses Verfahren auf eine vollbesetzte Matrix Anzuwenden, da für jeden Iterationsschritt eine QR-Zerlegung und eine Matrixmultiplikation benötigt werden. Daher wollen wir im folgenden davon ausgehen, daßdie Ausgangsmatrix bereits in Hessenbergform vorliegt, und bezeichnen sie mit H, um dies zu verdeutlichen. Satz 1: Es seien i die Eigenwerte von H mit der Eigenschaft j 1 j > j 2 j > ::: > j n j. Weiter seien x i die Eigenvektoren von H, die als Kolonnen in der regulären Matrix X 2 R nn zusammengefaßt seien. Falls für X 1 die LR-Zerlegung existiert, dann konvergieren die Matrizen H k für k! 1 gegen eine Rechtsdreiecksmatrix, und es gilt lim = i ; (i = 1; 2; :::; n). k!1 h(k) i;i Hat die Matrix H Paare von konjugiert komplexen Eigenwerten, derart daß ihre Beträge und die Beträge der reellen Eigenwerte paarweise verschieden sind, und existiert die (komplexe) LR-Zerlegung von X 1, dann konvergieren die Matrizen H k gegen eine Quasidreiecksmatrix. Für die Subdiagonalelemente h (k) i+1;i von H k, die überhaupt gegen Null konvergieren, gilt zusätzlich folgende Abschätzung für hinreichend große k: h (k) i+1;i k i+1 i ; (i = 1; 2; :::; n 1) (2) 2

3 Der Satz liefert uns einerseits die Konvergenz der Matrizenfolge H k, er zeigt uns aber auch gewisse Grenzen auf. Wir können und werden hier nur zwei Fälle für die Eigenwerte i der Ausgangsmatrix betrachten: 1) j 1 j > j 2 j > ::: > j n j 2) j i j > j i+1 j = j i+2 j > j i+3 j, falls i+2 = i+1 Mehrfache Eigenwerte und reelle Eigenwerte vom gleichen Betrag werden wir für unsere Ausgangsmatrix nicht zulassen. In dem Buch Einführung in die Numerische Mathematik II (Stoer, Bulirsch) nden wir übrigens, daßdie Forderung nach der LR-Zerlegung von X 1 nicht entscheidend ist für die Konvergenz, sie sichert viel mehr, daßdie Eigenwerte in der Grenzmatrix schließlich der Größe nach geordnet sind. Ist dies im Einzelfall nicht erforderlich, so können die Forderungen an die Ausgangsmatrix um diesen Punkt gekürzt werden. Als Grenzmatrix erhalten wir nach Satz 1 für den Fall rein reeller Eigenwerte eine Dreiecksmatrix, bei der die Eigenwerte bekanntlich in der Diagonalen stehen. Für den Fall, daßdie Ausgangsmatrix auch Paare von komplex konjugierten Eigenwerten besitzt erhalten wir eine Quasidreiecksmatrix R, die die Gestalt 2 3 R 1;1 R 1;2 R 1;3 R 1;m 0 R 2;2 R 2;3 R 2;m R = 0 0 R 3;3 R 3;m R m;m hat. Hierbei haben die Matrizen R i;i die Ordnung eins oder die Ordnung zwei, und haben im letzten Fall ein Paar von komplex konjugierten Eigenwerten. Die Eigenwerte einer Quasidreiecksmatrix lassen sich leicht berechnen, denn es gilt det(r Q I) = m det(r i;i I i;i ) i=1 wobei I i;i die i i Einheitsmatrix ist. 3

4 Beweis: Sei R 2 R nn die oben dargestellte Quasidreiecksmatrix. Wir betrachten zwei Fälle für R m;m : 1) Sei R m;m von der Ordnung eins. Dann hat R die Gestalt er v R = 0 r n;n dabei ist R e 2 R (n 1)(n 1) wieder eine Quasidreiecksmatrix, und v 2 R n 1. Die Entwicklung der Determinante von R nach der letzten Zeile ergibt sich dann zu er det (R) = ( 1) 2n r n;n det = det (R m;m ) det er. 2) Sei R m;m von der Ordnung zwei. Dann hat R die Gestalt 2 3 er v u R = 4 0 r n 1;n 1 r n 1;n 5 0 r n;n 1 r n;n dabei ist R e 2 R (n 2)(n 2) wieder eine Quasidreiecksmatrix, und v; u 2 R n 2. Die Entwicklung der Determinante von R nach der letzten Zeile ergibt sich dann zu er det (R) = ( 1) 2n 1 u er r n;n 1 det + ( 1) 2n v r n;n det 0 r n 1;n 0 r n 1;n 1 = r n;n 1 r n 1;n det er + r n;n r n 1;n 1 det er = (r n 1;n 1 r n;n r n 1;n r n;n 1 ) det er = det (R m;m ) det er Somit folgt Q det (R) = m det (R i;i ) und da R I wieder eine Quasidreiecksmatrix ist, folgt die Behauptung. i=1 4

5 1 Praktische Durchführung für reelle Eigenwerte Sei H 2 R nn jetzt unsere Ausgangsmatrix, die bereits vorher, etwa durch Householder-Re exionen, ähnlich auf Hessenbergform transformiert wurde. Weiter mögen die Eigenwerte i von H reell und betragsmäßig voneinander getrennt sein, so daßj 1 j > j 2 j > ::: > j n j gilt. Dann konvergiert nach Satz 1 die Matrix A k für k! 1 gegen eine Rechtsdreiecksmatrix, bei der die Eigenwerte bekanntlich in der Diagonalen stehen und somit direkt abgelesen werden können. Die Subdiagonalelemente h (k) i+1;i von H k bilden nach (2) eine Nullfolge, deren Konvergenzgeschwindigkeit von dem Quotienten i+1 i abhängt. Dieser kann aber beliebig nahe bei eins liegen, wodurch die Konvergenz auch beliebig langsam werden kann. Dann wären sehr viele Iterationen nötig, was zu einem erheblichen Rechenaufwand führen würde. 1.1 Konvergenzverbesserung mittels Spektralverschiebung Betrachten wir jetzt die Matrix B = H I, wobei H wieder unsere Ausgangsmatrix ist und 2 R. O ensichtlich ist B wieder eine Hessenbergmatrix und hat die Eigenwerte i. Nach der Abschätzung (2) wird die Konvergenzgeschwindigkeit jetzt durch den Quotienten i+1 i bestimmt, den wir durch geschickte Wahl von beliebig klein kriegen können. Führen wir nun in jedem Iterationsschritt diese explizite Spektralverschiebung aus, so lautet die neue Vorschrift H k k I = Q k R k, H k+1 = R k Q k + k I, k = 1; 2; ::: (3) Man beachte hierbei, daß gilt und somit R k = Q 1 (H k k I) H k+1 k I = Q 1 k (H k k I)Q k folgt, also bleibt die Ähnlichkeit der Iterierten Matrizen weiter erhalten. Ebenso sieht man leicht, daßdie Tatsächlichen Eigenwerte der Matrizen H k nicht verändert werden. Man nennt die Technik der Spektralverschiebung auch eine Shift-Technik und k den Shift. In der Praxis wählt ihn in diesem Fall üblicherweise als k = h (k) nn. 5

6 Das hat den Vorteil. daßes somit am wahrscheinlichsten ist, daßh (k) n;n 1 als erstes hinreichend klein wird. Dann zerfällt die Matrix H k bereits nach wenigen Schritten zu H k = " # bh b h 0 h (k). n;n Diese Form von H k bringt uns ein gutes Stück weiter, wie die Entwicklung der Determinante nach der n-ten Zeile zeigt. Demnach ist nämlich det(h k I) = (h (k) n;n ) ( 1) 2n det( b H I n 1;n 1 ) = h (k) n;n det( b H I n 1;n 1 ). woraus sofort folgt, daßh (k) n;n jetzt ein Eigenwert von H k ist und die anderen Eigenwerte von H k notwendigerweise die Eigenwerte der sich abspaltenden Hessenbergmatrix H b sind. Deshalb kann man nun die Iteration (3) mit H b fortführen. Hierbei ist vor allem zu bemerken, daßh b nur noch die Ordnung n 1 besitzt. Wir können also nach jedem "Zerfall-Schritt" die jeweils letzte Zeile und Spalte streichen und mit einer kleineren Matrix weiterrechnen. Dies nennt man De ation. Kommen wir nun zur praktischen Durchführung. Die in jedem Schritt anstehende QR-Transformation wird mittels (n 1) Rotationsmatrizen U i durchgeführt. So viele Matrizen wollen wir aber selbstverständlich nicht abspeichern, daher nutzen wir jetzt die Assoziativität der Matrixmultiplikation und gewisse Eigenschaften der Rotationsmatrizen aus. Dann ist H k+1 = U 1 n 1 :::U 1 2 U 1 1 (H k k I)U 1 U 2 :::U n 1 + k I. Zunächst führen wir die beiden Matrixmultiplikationen U2 1 U 1 1 (H k k I) aus. Weitere Multiplikationen von links mit U4 1 U 3 1 betre en jetzt nur noch die dritte und die folgenden Zeilen, also werden die ersten beiden Zeilen, sowie die ersten beiden Spalten durch die Fortführung der QR-Zerlegung nicht mehr verändert. Die Multiplikation mit U 1 von rechts bewirkt jetzt nur noch eine Linearkombination der ersten und zweiten Spalte, und ist daher bereits zu diesem Zeitpunkt durchführbar. Folgen wir diesem Schema weiter, so wird klar, daßnach der Multiplikation von links 6

7 mit U 1 3 wiederum die Multiplikation mit U 2 von rechts durchführbar ist. Diese gesta elte Durchführung der QR-Zerlegung macht es uns möglich, die "neue" Hessenbergmatrix nach und nach "über" die alte zu speichern. Da die Subdiagonalelemente von H k eine Nullfolge bilden, ist nun noch ein Kriterium notwendig, um zu entscheiden, wann sie "klein genug" sind. Ein sicheres Kriterium wäre h (k) i+1;i < eps max n h (k) i;i ; h (k) i+1;i+1 o, wobei eps die Maschienengenauigkeit ist. Erfüllt ein Subdiagonalelement also dieses Kriterium, so wird es gleich Null gesetzt. 2 Praktische Durchführung für komplexe Eigenwerte Ausgangspunkt ist wieder unsere Matrix H in Hessenbergform. Neben reellen Eigenwerten i habe sie jetzt auch Paare von komplex konjugierten Eigenwerten. Nun haben wir das Problem, daßmit den reellen Einträgen h (k) n;n keine geeigneten Näherungen für komplexe Eigenwerte erreicht werden können. Wir betrachten die Untermatrix C k von H k mit C k = " # h (k) n 1;n 1 h (k) n 1;n h (k) n;n 1 h (k) n;n Da H k reell ist, sind die Eigenwerte (k) 1 und (k) 2 von C k entweder reell oder komplex konjugiert. Im ersten Fall wählen wir als Shift k den Eigenwert (k) i an h (k) n;n liegt, also k = (k) 1 2 R mit (k) 1 h (k) n;n (k) 2 h (k) n;n von C k, der näher, (k = 1; 2; :::). Im zweiten Fall wählen wir für die beiden folgenden QR-Transformationen k = (k) 1 und k+1 = (k) 2 = k, (k) 1 2 C, (k = 1; 2; :::) 7

8 und führen den Übergang von H k zu H k+2 in einem Schritt aus. Da aber die Matrix H k k I komplexe Diagonalelemente hat, können wir sie nicht in reelle Matrizen Q k ; R k zerlegen. Allerdings gibt es zu einer komplexen Matrix A stets eine unitäre Zerlegung A = UR, wobei U unitär ist (U = U T ; U U = I) und R eine komplexe Rechtsdreiecksmatrix mit reellen Diagonalelementen. Vorab sei gesagt, daßwir den gewünschten Doppelschritt tatsächlich komplett in der reellen Arithmetik durchführen können. Um das zu sehen müssen wir aber zumindest in der Theorie den Doppelschritt mittels unitärer Matrizen durchführen. Er lautet dann entsprechend: H k k I = U k R k H k+1 = R k U k + k I H k+1 k+1 I = U k+1 R k+1 H k+2 = R k+1 U k+1 + k+1 I: Demnach wäre H k+2 = U k+1 U k H ku k U k+1 = (U k U k+1 ) H k U k U k+1. Weiter ist das Matrizenprodukt U k U k+1 R k+1 R k = U k (H k+1 k+1 I)R k = U k (H k+1 k+1 I)U k (H k k I) wobei und = U k (R k U k + k I k+1 I)U k (H k k I) = (U k R k U k + k IU k k+1 IU k )U k (H k k I) = (U k R k + k I k+1 I)U k U k (H k k I) = (H k k+1 I)(H k k I) = H 2 k ( k + k+1 )H k + k k+1 I. s := k + k+1 = k + k = 2 <ef k g t := k k+1 = k k = j k j 2 reell sind, und somit folglich auch die Matrix X := H 2 k sh k + ti. 8

9 Das heißt aber nichts anderes, als daßdurch X = (U k U k+1 )(R k+1 R k ) eine unitäre QR-Zerlegung der reellen Matrix X gegeben ist. Da aber zu jeder reellen Matrix X auch eine reelle QR-Zerlegung existiert, können die Matrizen U k und U k+1 so gewählt werden, daßihr Produkt U k U k+1 = Q eine orthogonale Matrix ist, was wiederum sicherstellt, daßh k+2 = (U k U k+1 ) 1 H k U k U k+1 = Q T H k Q wieder eine reelle Hessenbergmatrix ist. Wie erhalten wir jetzt aber die orthogonale Matrix Q? Eine Möglichkeit wäre, die Matrix X zu berechnen und dann davon die QR-Zerlegung zu bestimmen. Diese Methode wäre aber sehr ine zient. Es gibt eine elegantere Variante, die Grundlage dafür ist allerdings der Satz 2: Die orthogonal-ähnliche Transformation einer Matrix A in eine Hessenbergmatrix H = Q T AQ ist eindeutig bestimmt duch die erste Spalte von Q, falls in der nichtreduzierten Matrix H die Subdiagonalelemente h i+1;i, (i = 1; 2; :::; n 1) positiv sind. Beweis: Wir nehmen an, daßh; Q; A 2 R nn und bezeichnen mit q k die k-te Spalte von Q. Dann zeigen wir, daßaus der Vorgabe von q k die Eindeutigkeit der k-ten Spalte von H sowie der (k + 1)-Spalte von Q folgt. Es sei also q k gegeben, und es gilt H = Q T AQ: Dann folgt, da H = Q T AQ, QH = AQ, für die jeweils k-te Spalte: Aq k = 0 1 nx nx e q i;j h j;k A i=1 j=1 = e 1 (q 1;1 h 1;k + q 1;2 h 2;k + ::: + q 1;n h n;k ) +::: +e n (q n;1 h 1;k + q n;2 h 2;k + ::: + q n;n h n;k ) = h 1;k (e 1 q 1;1 + e 2 q 2;1 + ::: + e n q n;1 ) = +::: +h n;k (e 1 q 1;n + e 2 q 2;n + ::: + e n q n;n ) k+1 X h i;k q i, da h i;;j = 0 für i > j + 1 i=1 Multiplizieren wir die Gleichung von links mit q i T so erhalten wir, aufgrund der Orthonormiertheit der Spalten von Q, durch h i;k = q i T A q k die Eindeutigkeit der Matrixelemente h i;k. Nach Voraussetzung ist H k+1;k > 0, daher erhalten wir für q k+1 : q k+1 = 1 h k+1;k A q k kp h i;k q. i i=1 9

10 Zusammen mit der Normierungsbedingung q k+1 T q k+1 = 1 sind somit die (k + 1)-te Spalte von Q sowie die k-te Spalte von H eindeutig bestimmt. Gesucht ist ja die orthogonale Matrix Q mit H k+2 = Q T H k Q und X = QR. Wir benutzen jetzt den Satz 2, um Q wie folgt zu konstruieren: Zuerst bestimmen wir eine orthogonale Matrix Q 0, welche in der QR-Zerlegung die erste Spalte von X auf die gewünschte Form bringt, also die erste Spalte von X auf ein Vielfaches des ersten Einheitsvektors abbildet, so daßfolgt: Q T r11 g T 0 X = 0 X b Nun ist zu bemerken, daßder weitere Verlauf dieser QR-Zerlegung mittels Givens-Rotationen die erste Spalte von Q 0 nicht mehr ändert. Ebenso gilt für jede orthogonale Matrix Q, e die irgendeine Matrix A auf Hessenbergform transformiert, daßderen erste Spalte eq 1 der erste Einheitsvektor e 1 ist, denn stellt man diese als Produkt von Rotationsmatrizen U i dar, so hat keines der Rotationsindexpaaren den Index eins. Daher ist die erste Spalte der Matrix Q = Q 0Q e gleich der ersten Spalte von Q 0. Nun können wir zunächst die Matrix B = Q T 0 H k Q 0 bestimmen, und diese dann mittels einer geeigneten orthogonalen Matrix Q e zu H k+2 = e Q T B e Q = e Q T Q T 0 H k Q 0 e Q = Q T H k Q orthogonal-ähnlich transformieren. Zur Bestimmen von Q 0 benötigen wir die Elemente der ersten Spalte von X. Wir erinnern uns, daß X := H 2 k sh k + ti. Da H k eine Hessenbergmatrix ist, sind in der ersten Spalte von X nur die ersten drei Einträge x 1 ; x 2 und x 3 ungleich Null. Für sie gilt insbesondere: x 1 = h h 12 h 21 sh 11 + t x 2 = h 21 (h 11 + h 22 s) x 3 = h 21 h 32 10

11 Da wir mit Q 0 also nur zwei Elemente von X eleminieren müssen, läßt sich Q 0 auch einfach als Produkt zweier Rotationsmatrizen erzeugen. Mit geeigneten Winkeln ' 1 und ' 2 wäre dann Q 0 = U(1; 2; ' 1 ) U(1; 3; ' 2 ). Dies hat zur Folge, daßdie orthogonal-ähnliche Transformation der Matrix H k auf die Matrix B nur die ersten drei Zeilen und Spalten von H k betri t. Wir erhalten somit eine Spezielle Struktur, die für n = 7 folgendermaßen aussieht: 2 3 X X X X X X X X X X X X X X X X X X X X X B = Q T 0 H k Q 0 = X 0 X X X X X X X X X X X X X X Die Hessenbergform ist nur in der ersten Spalte verloren gegangen. Nutzen wir diese Struktur für die Transformation von B auf Hessenbergform aus, so benötigen wir für die Behandlung der ersten Spalte zunächst zwei Rotationensmatrizen U 23 = U(2; 3; ' 3 ) und U 24 = U(2; 4; ' 4 ). Es werden also zunächst die zweiten und dritten Zeilen und Spalten, sowie danach die zweiten und vierten Zeilen und Spalten geändert, und es folgt: 2 3 X X X X X X X X X X X X X X 0 X X X X X X B 1 = U24U T 23BU T 23 U 24 = 0 X X X X X X 6 0 X 0 X X X X X X X X X Wie man sieht, wurden die beiden von Null verschiedenen Elemente unterhalb der Subdiagonalen eliminiert, und es entstehen zwei neue von Null verschieden Elemente unterhalb der Subdiagonalen der nächsten Spalte. Man kann also durch analoge Givens-Rotationen die störenden Elemente nach rechts unten verschieben bis die Hessenberggestalt wieder hergestellt ist. Wir erhalten somit H k+2 als relle Hessenbergmatrix mit H k+2 = Q T H k Q. Die Spektralverschiebungen wurden hier nicht explizit vorgenommen, wir haben sie viel mehr für die Konstruktion der ersten Spalte von Q benutzt. Daher heißt der Übergang von H k zu H k+2 auch QR-Doppelschritt mit impliziter Spektralverschiebung. Somit ist im Grunde alles gesagt, die Konvergenz wird durch das zuletzt besprochene Shift-Verfahren verbessert, und wir erhalten allgemein eine Quasidreiecksmatrix R, aus der wir die Eigenwerte bestimmen können. 11

12 Literatur -H.R. Schwarz, Numerische Mathematik (1997 Stuttgart,Teubner): Abschnitt und Stoer Bulirsch, Numerische Mathematik II (1978 Heidelberg, Springer): Abschnitt

QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof.

QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof. QR-Algorithmus Proseminar - Numerische Mathematik Sommersemester 2005 - Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann 1 Im Laufe der Jahre wurde immer wieder versucht, die

Mehr

Transformation auf Hessenbergform und Tridiagonalform

Transformation auf Hessenbergform und Tridiagonalform Transformation auf Hessenbergform und Tridiagonalform Proseminar - Numerische Mathematik Sommersemerster 200 - Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann von Patrick Schuch

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

a) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k.

a) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k. Karlsruher Institut für Technologie (KIT) Institut für Analysis Prof. Dr. W. Reichel Sommersemester 00 7.07.00 MODULPRÜFUNG Numerische Methoden (Höhere Mathematik IV für die Fachrichtung Meteorologie bzw.

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 8 Institut für Informatik Prof. Dr. Thomas Huckle Michael Rippl Fabio Gratl Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt: Gaußelimination mit Pivotsuche,

Mehr

Numerik für Informatiker und Bioinformatiker. Daniel Weiß

Numerik für Informatiker und Bioinformatiker. Daniel Weiß Numerik für Informatiker und Bioinformatiker Daniel Weiß SS 202 Folgende Literatur bildet die Grundlage dieser Vorlesung: P Deuflhard, A Hohmann, Numerische Mathematik, Eine algorithmisch orientierte Einführung,

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Vorlesungsskript HM-Numerik (SS 4): Kapitel Version: 9 Mai 4 Lineare Gleichungssysteme Gegeben: A R n n mit det(a) b R n Gesucht: x R n mit Ax = b Zeilenäquilibrierung Möchten zunächst die Kondition des

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Abschnitt 2.5: QR-Verfahren 31

Abschnitt 2.5: QR-Verfahren 31 Abschnitt 2.5: QR-Verfahren 31 Bemerkungen 2.5.7 i) Der Aufwand des oben beschriebenen Verfahrens, eine Matrix A R n n in obere Hessenbergform zu überführen, beträgt ungefähr 5 3 n3 Operationen. Hierbei

Mehr

LR Zerlegung. Michael Sagraloff

LR Zerlegung. Michael Sagraloff LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:

Mehr

4. Übungsblatt zur Mathematik II für Inf, WInf

4. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof Dr Streicher Dr Sergiy Nesenenko Pavol Safarik SS 010 11 15 Mai 4 Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G13 (Basistransformation) ( ) 15 05 Die lineare

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

Kapitel 2: Lineare Gleichungssysteme

Kapitel 2: Lineare Gleichungssysteme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 11 1. Juni 2010 Rechenregeln für Determinanten Satz 62. (Determinanten von Dreiecksmatrizen) Es sei A eine obere oder untere n n-dreiecksmatrix.

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.3 Ergänzungen

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.3 Ergänzungen Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 83 Ergänzungen wwwmathethzch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof Dr Erich Walter Farkas http://wwwmathethzch/ farkas

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme Lineare Gleichungssysteme Wir wissen bereits, dass ein lineares Gleichungssystem genau dann eindeutig lösbar ist, wenn die zugehörige Matrix regulär ist. In diesem Kapitel lernen wir unterschiedliche Verfahren

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1. b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN. Invertierung von Matrizen und Multilinearformen

TECHNISCHE UNIVERSITÄT MÜNCHEN. Invertierung von Matrizen und Multilinearformen TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Prof Dr Friedrich Roesler Ralf Franken, PhD Max Lein Lineare Algebra WS 2006/07 en Blatt 3 2902007 Invertierung von Matrizen und Multilinearformen Zentralübungsaufgaben

Mehr

QR-Iteration. Ax = λx Q T AQQ T x = λq T x.

QR-Iteration. Ax = λx Q T AQQ T x = λq T x. Lehrstuhl für Numerische Mathemati QR-Iteration Vorüberlegung: Die Multipliation mit einer orthonormalen Matrix Q heißt Ähnlicheitstransformation. Die Eigenwerte einer Matrix A bleiben unter einer Ähnlicheitstransformation

Mehr

Lineare Gleichungssystem

Lineare Gleichungssystem Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen

Mehr

A wird in diesem Fall invertierbar oder regulär genannt. Beispiel

A wird in diesem Fall invertierbar oder regulär genannt. Beispiel Inverse Matrizen Definition Sei A eine quadratische Matrix vom yp (n,n) Existiert zu A eine Matrix X gleichen yps mit AX = XA = E (E: (n,n) Einheitsmatrix), so nennt man X die zu A inverse Matrix, oder

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine

Mehr

Die Top 10 der Algorithmen Der QR-Algorithmus

Die Top 10 der Algorithmen Der QR-Algorithmus Die Top 10 der Algorithmen Der QR-Algorithmus Hans Hansen TU Chemnitz WS 04/05 17. Januar 2005 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Geschichte 3 2 Die Grundidee 3 3 Ähnlichkeitstransformationen

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München WiSe 7 / 8 Institut für Informatik Univ.-Prof. Dr. Hans-Joachim Bungartz Michael Obersteiner Philipp Samfass Numerisches Programmieren, Übungen Musterlösung 8. Übungsblatt:

Mehr

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................

Mehr

6. Groÿübung. 1 QR-Zerlegung. 2 Givens-Rotationen. Grundaufgabe

6. Groÿübung. 1 QR-Zerlegung. 2 Givens-Rotationen. Grundaufgabe 6. Groÿüung 1 QR-Zerlegung Als QR-Zerlegung wird die Zerlegung A QR der Matrix A R m n in die rechte oere Dreiecksmatrix R R m n und die orthogonale Matrix Q R m m ezeichnet. Die Lösung des Gleichungssystems

Mehr

Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen

Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 81 Reelle Matrizen Prof Dr Erich Walter Farkas http://wwwmathethzch/ farkas 1 / 32 8 Lineare Algebra: 1 Reelle Matrizen Grundbegriffe Definition

Mehr

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Oliver Ernst Professur Numerische Mathematik Wintersemester 2015/16 Inhalt I 1 Einleitung 1.1 Lineare Gleichungssysteme 1.2 Matrixfunktionen 1.3 Modellreduktion 1.4 Eigenwertaufgaben

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 2013 Prof Dr Erich Walter Farkas Kapitel 7: Lineare Algebra 71 Reelle Matrizen Prof Dr Erich Walter Farkas Mathematik I+II, 71 Reelle Matrizen 1 / 31 1 2 3 4 Prof Dr Erich

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Numerik SS Musterlösung zu Hausaufgabenblatt 1

Numerik SS Musterlösung zu Hausaufgabenblatt 1 PROF DR BERND SIMEON CHRISTIAN GOBERT THOMAS MÄRZ Numerik SS 2009 Musterlösung zu Hausaufgabenblatt Aufgabe Links- und Rechtseigenpaare (20 P) Definition: Sei A C n n Ein Vektor 0 = x C n heißt (Rechts-)eigenvektor

Mehr

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 81 Reelle Matrizen Prof Dr Erich Walter Farkas http://wwwmathethzch/ farkas 1 / 31 1 2 3 4 2 / 31 Transponierte einer Matrix 1 Transponierte

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

3 Matrizen und Lineare Gleichungssysteme

3 Matrizen und Lineare Gleichungssysteme 3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen

Mehr

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15. Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur

Mehr

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen Gliederung I. Motivation II. Lesen mathematischer Symbole III. Wissenschaftliche Argumentation IV. Matrizenrechnung i. Rechenoperationen mit Matrizen ii. iii. iv. Inverse einer Matrize Determinante Definitheit

Mehr

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

mit Skalarprodukt aus i-tem Zeilenvektor und j-tem Spaltenvektor Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG R. Käppeli L. Herrmann W. Wu Herbstsemester 2016 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 6 Aufgabe 6.1 Berechnen Sie die Determinanten der beiden

Mehr

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra Theoretische Fragen zu ausgewählten Themen in Lineare Algebra { Oren Halvani, Jonathan Weinberger } TU Darmstadt 25. Juni 2009 Inhaltsverzeichnis 1 Determinanten................................................

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Technische Universität München Christoph Niehoff Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 009/00 Die beiden Hauptthemen von diesem Teil des Ferienkurses sind Lineare Gleichungssysteme

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Musterlösung 11. D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung

Musterlösung 11. D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung D-INFK Lineare Algebra HS 27 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung. Wir bezeichnen die Spalten von A als A (a a 2 a 3 ) und die Spalten des Resultats der QR-Zerlegung mit Q (q q 2 q 3 ), R (r

Mehr

Lösung 13: Unitäre Vektorräume und normale Abbildungen

Lösung 13: Unitäre Vektorräume und normale Abbildungen D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Serie Sei V ein Vektorraum. Man nennt eine lineare Abbildung P : V V eine Projektion, falls P 2 = P gilt. Zeigen Sie:

Serie Sei V ein Vektorraum. Man nennt eine lineare Abbildung P : V V eine Projektion, falls P 2 = P gilt. Zeigen Sie: Prof Emmanuel Kowalski Lineare Algebra II Serie 3 Sei V ein Vektorraum Man nennt eine lineare Abbildung P : V V eine Projektion, falls P 2 = P gilt Zeigen Sie: a Der Kern und das Bild einer Projektion

Mehr

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A =

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A = 3 Determinanten Man bestimmt Determinanten nur von quadratischen Matrizen Wir werden die Berechnung von Determinanten rekursiv durchfuhren, dh wir denieren wie man eine 2 2-Determinante berechnet und fuhren

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 2013 Prof Dr Erich Walter Farkas Kapitel 7: Lineare Algebra 73 Ergänzungen Prof Dr Erich Walter Farkas Mathematik I+II, 73 Ergänzungen 1 / 17 1 Reguläre Matrizen Prof Dr

Mehr

Cramersche Regel. Satz 2.26

Cramersche Regel. Satz 2.26 ramersche Regel Satz 6 Es sei A R n n eine quadratische Matrix mit det(a) 6= Für das LGS Ax = b sei A j := (a,,a j, b, a j+,,a n ), also die Matrix, die entsteht, wenn in A die j-te Spalte durch den Vektor

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 95 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle.

In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle. Nachschlag:Transposition von Matrizen Sei Explizit: Def: "Transponierte v. A": (tausche Zeilen mit Spalten d.h., spiegle in der Diagonale) m Reihen, n Spalten n Reihen, m Spalten z.b. m=2,n=3: Eigenschaft:

Mehr

MLAN1 1 MATRIZEN 1 0 = A T =

MLAN1 1 MATRIZEN 1 0 = A T = MLAN1 1 MATRIZEN 1 1 Matrizen Eine m n Matrix ein rechteckiges Zahlenschema a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n a m1 a m2 a m3 amn mit m Zeilen und n Spalten bestehend aus m n Zahlen Die Matrixelemente

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme 3 Lineare Gleichungssysteme 3 Fortsetzung des Matrizenkalküls Als erstes beweisen wir einen einfachen Satz über den Rang von Matrizenprodukten Satz 3 (a) Für Matrizen A : Ã l m, B : Ã m n gilt rang AB

Mehr

7. Großübung. Ax =QRx = b Rx =Q 1 b = Q T b. Wir behandeln im Folgenden zwei Verfahren zur Erzeugung der QR-Zerlegung:

7. Großübung. Ax =QRx = b Rx =Q 1 b = Q T b. Wir behandeln im Folgenden zwei Verfahren zur Erzeugung der QR-Zerlegung: 7. Großüung 1 QR-Zerlegung Als QR-Zerlegung wird die Zerlegung A QR der Matrix A R m n in die rechte oere Dreiecksmatrix R R m n und die orthogonale Matrix Q R m m ezeichnet. Die Lösung des Gleichungssystems

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Aufgaben zu Kapitel 16

Aufgaben zu Kapitel 16 Aufgaben zu Kapitel 16 1 Aufgaben zu Kapitel 16 Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

a ij x j max a ik = x 1 max max a ij x 0. a ij = e k 1 max

a ij x j max a ik = x 1 max max a ij x 0. a ij = e k 1 max 2.1 a) Sei x R n fest, aber beliebig gewählt. Sei i 0 {1,...,n} ein Index mit Dann gilt zunächst x i0 = max,...,n x i. x = max x i = x i0 = ( x i0 p) ( ) 1/p 1/p x i p = x p,...,n für alle p 1. Umgekehrt

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT

4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT ME Lineare Algebra HT 2008 86 4 Determinanten 4. Eigenschaften der Determinante Anstatt die Determinante als eine Funktion IC n n IC durch eine explizite Formel zu definieren, bringen wir zunächst eine

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Kapitel 4 Determinante Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Was ist eine Determinante? Wir wollen messen, ob n Vektoren im R n linear abhängig sind bzw. wie weit sie davon entfernt

Mehr

6.2 Rechnen mit Matrizen

6.2 Rechnen mit Matrizen 62 Rechnen mit Matrizen 62 Rechnen mit Matrizen 103 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr