Der CG-Algorithmus (Zusammenfassung)
|
|
- Sophia Sabine Schulz
- vor 7 Jahren
- Abrufe
Transkript
1 Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli
2 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine symmetrische positiv definite und schwach besezte Matrix A R n n. CG steht für conjugate gradients Herkunft: M. R. Hestenes, E. Stiefel: Methods of Conjugate Gradients for Solving Linear Systems. NBS J. Res., 49: , 1952 Konjugiert bedeutet orthogonal (senkrecht) bezüglich eines Skalarprodukts: Eine symmetrische positiv definite Matrix A R n n induziert ein Skalarprodukt x, y A := x T Ay. Das Standard-Skalarprodukt bekommt man für den Fall, dass A die Einheitsmatrix ist. x und y heissen konjugiert genau dann, wenn x, y A := x T Ay = 0. 2
3 CG-Algorithmus (siehe Bollhöfer/Mehrmann) Eingangsdaten: A R n n symmetrisch und positiv definit, b R n, Startvektor x R n, Abbruchschranke ǫ Ergebnis: Näherung x für die Lösung x der Gleichung Ax = b. r = b Ax; ρ = ; β = 0; k = 0. while ρ > ǫ b k = k + 1; z = r; ρ old = ρ; ρ = r T z; if k = 1 p = z; else β = ρ/ρ old ; p = z + β p; end z = Ap; σ = p T z; α = ρ/σ; x = x + α p; r = r α z; end Bemerkung: Bei jedem Schleifendurchlauf wird eine Matrix-Vektor-Multiplikation ausgeführt. wenig zu rechnen bei schwach besetzter Matrix A. 3
4 Übersichtlicher aber nicht speicher- und zeitoptimaler Pseudocode für CG Startwerte: x 0 beliebig, r 0 = b Ax 0, p 0 = r 0. k = 0 while r k > Tol x k+1 = x k + α p k, wobei α = r k r k p k Ap k r k+1 = r k α Ap k, p k+1 = r k+1 + β p k wobei β = r k+1 r k+1 r k r k end k = k + 1 Bemerkung: Es ist α = r k r k p k Ap k = p k r k p k Ap k Man sollte aber den rechten Quotienten in der Programmierung nicht verwenden, weil es bei Berechnung des Skalarprodukts p k r k wegen unterschiedlicher Vorzeichen in den Einträgen der Vektoren zu Auslöschung kommen kann. 4
5 Grundlagen des CG-Algorithmus Zweck des Algorithmus: Lösung der Gleichung Ax = b, wobei A R n n symmetrisch und positiv definit. Terminologie: r(x) := b Ax heisst das Residuum von x R n. Grundgedanke: An der Lösung x nimmt die quadratische Funktion Φ(x) := 1 2 xt Ax b T x ihr Minimum an. Man hat (a) (b) Φ(x) = Ax b = r(x), Φ(x) = (x x ) T A(x x ) 1 2 xt Ax und die Äquivalenz (c) x = x r(x) = 0 Φ(x) = 0. Eingangsdaten: A, b, x 0 R n (Startvektor) 5
6 Definierende Eigenschaften des CG-Algorithmus Der CG-Algorithmus generiert drei endliche Folgen von Vektoren x 0, x 1,..., x m, (Approximationen an die Lösung x ) r 0, r 1,..., r m, (Residuen) p 0, p 1,..., p m. (Suchrichtungen) Der Algorithmus bricht bei m ab, wenn r m hinreichend klein ist, spätestens aber, wenn r m = 0. Dann ist nämlich x m = x. Bei Rechnung in exakter Arithmetik (keine Rundungsfehler) hat man stes m n=dimension der Matrix A. Zwischen den Folgengliedern bestehen die Beziehungen (1) r k = r(x k ) = b Ax k = Φ(x k ). (2) x k+1 = x k + α k p k, wobei α k R so, dass Φ(x k+1 ) = min α R Φ(x k + α p k ). (Minimierung von Φ auf der Geraden x k + α p k.) (3) p 0 = r 0 = b Ax 0, und für k 1, p k = Φ(x k ) + r k 2 r k 1 2 p k 1 = r k + r k 2 r k 1 2 p k 1. 6
7 Die Niveau-Mengen von Φ Die Niveau-Mengen der zu minimierenden Funktion Φ : R n R mit Φ(x) = 1 2 xt Ax b T x, A R n n positiv definit, sind (n 1)-dimensionale Ellipsoide mit Mittelpunkt x = A 1 b. Die Richtungsvektoren der Hauptachsen der Ellipsoide sind die Eigenvektoren von A. (Begründung auf der folgenden Seite) Bild: Die Situation im Fall n = 2. Die Vektoren v 1, v 2 sind die Eigenvektoren von A. v 2 v 1 x * Φ =const 7
8 Zur Bestimmung der Niveau-Mengen Man hat Φ(x) = 1 2 xt Ax b T x = 1 2 (x x ) T A(x x ) 1 2 xt Ax, x = A 1 b. ( ) Sei v 1,..., v n R n eine Orthonormalbasis von Eigenvektoren von A, so dass Av k = λ k v k, Führe neue Koordinaten ξ 1,..., ξ n ein so dass Dies in ( ) eingesetzt ergibt λ k > 0 (weil A positiv definit) x = x + ξ 1 v 1 + ξ 2 v ξ n v n Φ(x) = 1 2 n λ k ξk xt Ax. k=1 es folgt für eine gegebene Konstante c > 1 2 xt Ax, Φ(x) = c 1 2 n n k=1 ξ 2 k a 2 k=1 k λ k ξ 2 k = c xt Ax }{{} =:(1/2) c 2 = 1, a k = c/ λ k Die letzte Gleichung ist die Gleichung eines Ellipsiods mit Halbachenlängen a k. 8
9 Minimierung von Φ entlang einer Geraden Gegeben: Anfangspunkt x k und Richtung der Geraden p k. Die Punkte auf der Geraden sind dann x α = x k + α p k, α R. Setzt man dies in Φ ein, so bekommt man wobei Φ(x α ) = 1 2 x α T Ax α b T x α = 1 2 (x k + α p k ) T A(x k + α p k ) b T (x k + α p k ) = c α 2 d α + e ( = c α 2c) d 2 ) + (e d2, 4c c = 1 2 p k Ap k > 0 (positive Definitheit), e d 2 /4c d/2c Φ(x α ) α d = 1 2 (p k Ax k + x k Ap k) + b p k = p k (b Ax k) = p k r k. Das Minimum von Φ auf der Geraden wird angenommen für α = d 2c = p k r k p k Ap. k Das neue Residuum ist r(x α ) = b Ax α = b Ax k αap k = r(x k ) αap k. 9
10 Methode des steilsten Abstiegs Sei p k R n eine Suchrichtung. Dann gilt für die Ableitung der Funktion Φ(x α ) = Φ(x k + α p k ) and der Stelle α = 0, dass d dα Φ(x α) = Φ(x k ) T p k α=0 (Richtungsableitung) Unter allen möglichen Suchrichtungen p k mit p k = 1 wird die Ableitung am kleinsten für p k = Φ(x k) Φ(x k ) = r(x k) r(x k ) Wählt man in jedem Schritt diese Suchrichtung, so nennt man den zugehörigen Algorithmus die Methode des steilsten Abstiegs. Da es hierbei auf die Länge von p k nicht ankommt (die Gerade, auf der man minimiert hängt davon nicht ab), kann man auch gleich p k = r(x k ) wählen. Nachteil des Verfahrens: Es konvergiert meist sehr langsam. 10
11 Idee des CG-Verfahrens: Wähle die Richtungen p k so, dass die Residuen (=negative Gradienten) r(x 0 ), r(x 1 ),..., r(x k ),... paarweise aufeinander senkrecht stehen (d.h. konjugiert sind). Vorteil: Falls r(x 0 ),..., r(x n 1 ) 0, so folgt r(x n ) = 0, d.h. x n = x. Man ist also spätestens nach n Schritten fertig (falls exakt gerechnet wird). Die Orthogonalität der Residuen zu erreicht man mit der Vorschrift p k+1 = Φ(x k ) + r(x k+1) 2 r(x k ) 2 p k = r(x k ) + r(x k+1) 2 r(x k ) 2 p k. Bemerkung: Bei dieser Wahl sind die Suchrichtungen A-konjugiert, d.h. p T j Ap k = 0 für j k. 11
12 Der CG-Algorithmus als Krylow-Raum-Verfahren (a) Für den von den ersten k Suchrichtungen p k aufgespannten Unterraum U k gilt dim U k = k und (b) r T k r j = r T k p j = 0 für j k U k = span{p 0,..., p k 1 } = span{r 0,..., r k 1 } = span{r 0, Ar 0,..., A k 1 r 0 } ( ) (r k ist konjugiert zu r j und p j bzgl. des Standard-Skalarprodukts) (c) Φ(x k ) = r k U k (Dies folgt unmittelbar aus (b) ) (d) Es ist x k x 0 + U k und Φ(x k ) = min x x0 +U k Φ(x). (d.h. Die Funktion Φ nimmt ihr Minimum im affinen Unterraum x 0 + U k an der Stelle x k an. Dies folgt aus (c), denn der Gradient steht ja senkrecht auf dem Richtungsraum=Tangentialraum U k ) ( ) besagt, dass U k ein Krylow-Raum ist. Der von einem Vektor v C n und einer Matrix A C n n erzeugte Krylow-Raum der Stufe k ist folgendermaßen definiert. K k (A, v) := span{v, Av,..., A k 1 v}. 12
13 Fehlerabschätzung Für den Fehler e k = x k x gilt beim CG-Verfahren: e k A 2 ( cond(a) 1 cond(a) + 1 ) k e 0 A, wobei cond(a) = A A 1 die Konditionszahl von A bzgl. der Spektralnorm ist. Für symmetrische positiv definite Matrizen gilt A = λ max (A), A 1 = λ max (A 1 ) = 1/λ min (A), wobei λ max und λ min den größten und den kleinsten Eigenwert bezeichnet. Somit ist cond(a) = λ max(a) λ min (A) 1. e k A bezeichnet die sogenannte Energie-Norm von e k, e k A = e T k Ae k. 13
14 Vorkonditionierte CG-Verfahren (PCG-Verfahren) Grundidee: Verbesserung der Konvergenz durch Lösen eines äquivalenten Gleichungssystems mit geringerer Kondition. Sei C R n n eine beliebige invertierbare Matrix. Dann ist die Gleichung äquivalent zu Ax = b (C 1 AC T ) (C T x) }{{} y = C 1 b. Falls cond(c 1 AC T ) << cond(a), dann löse dieses System, denn es hat bessere Fehlerschranke. Versuche damit cond(c 1 AC T ) 1 C 1 AC T I also A CC T =: Ã Glücklicher Umstand: Man braucht bei der Implementation die neue Matrix C 1 AC T nicht zu berechnen, sondern kann im CG-Algorithmus für A die Zeile durch die Anweisung: z = r Löse Ãz = r, ( ) ersetzen. Voraussetzung dafür, dass das praktikabel ist: Das System ( ) muss leicht lösbar sein. 14
15 Ausblick: Was macht man, wenn A nicht symmetrisch positiv definit ist? Erste Idee: Das Gleichungssystem Ax = b ist äquivalent zu A T Ax = A T b (Normalgleichung) Die Matrix A T A ist positiv definit (sofern det(a) 0). Wende also das CG-Verfahren auf das Paar (A T A, A T b) an. Die zu minimierende Funktion ist in diesem Fall Φ(x) = 1 2 xt A T Ax x T A T b = 1 2 ( Ax b 2 b T AA T b) = 1 2 ( r(x) 2 A T b 2 ). Für die Folge der x k gilt dann, dass x k x 0 + K k (A T A, r 0 ) und Φ(x k ) = min Φ(x). x x 0 +K k (A T A,r 0 ) Das Verfahren heisst CGNR-Verfahren. Nachteil: Beim Übergang A A T A quadriert sich die Konditionszahl: cond(a T A) = cond(a) 2. Schlechte Fehlerschranke 15
16 Beim CGNR-Verfahren bestimmt man die Folge der x k so, dass x k x 0 + K k (A T A, r 0 ) und wobei Φ(x k ) = min Φ(x). x x 0 +K k (A T A,r 0 ) Φ(x) = 1 2 ( r(x) 2 A T b 2 ) oder auch (auf Konstanten kommt es beim Minimieren nicht an) Φ(x) = 1 2 r(x) 2 Bessere Idee: Bestimme die x k so, dass x k x 0 + K k (A, r 0 ) und Φ(x k ) = Für die Gradienten muss dann gelten min Φ(x). x x 0 +K k (A,r 0 ) umgeformt: Φ(x k ) = A T Ax k A T b = A T r(x) K k (A, r 0 ), r(x) A K k (A, r 0 ). Das so definierte Verfahren heisst GMRES-Verfahren (Saad und Schultz, 1986). GMRES=Generalized Minimal Residual. 16
Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten
Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten 1 / 20 Lineares Gleichungssystem Ax = f, n A[i, j]x j = f i j=1 für i = 1,..., n Voraussetzungen Matrix A sei symmetrisch: A[i, j] =
Mehr5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
Mehr2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)
MehrIterative Methoden zur Lösung von linearen Gleichungssystemen
Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
Mehr3. Lineare Gleichungssysteme
3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren
Mehr7. Iterative Lösung. linearer Gleichungssysteme
7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +
MehrIterative Verfahren zur Lösung von Linearen Gleichungssystemen
Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Institut für Geometrie und Praktische Mathematik Multiple-Choice-Test NumaMB F08 (30 Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
MehrGrundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrProbeprüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Frühling 018 Probeprüfung Lineare Algebra I/II für D-MAVT Die Prüfung dauert 10 Minuten. Sie dient der Selbstevaluation. Die Musterlösungen folgen. Die Multiple Choice
MehrDas CG-Verfahren. Sven Wetterauer
Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
MehrVF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.
NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet
MehrEinführung in die Grundlagen der Numerik
Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Normierter Vektorraum Sei X ein R-Vektorraum. Dann heißt
MehrKlausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016
Name, Vorname Matrikel-Nr. Aufg. Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 206 Bearbeiten Sie bitte
MehrLösungen zu Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrTU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrKapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])
Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
Mehr5.1 Iterative Lösung linearer Gleichungssysteme
5.1 Iterative Lösung linearer Gleichungssysteme à Gegeben: A Œ Ñ n,n regulär, b Œ Ñ n Gesucht: x èè Œ Ñ n : Ax èè = b bzw. Iterationsverfahren: x H0L Œ Ñ n, x Hm+1L := GHx HmL L, m=0,1,..., mit x HmL ô
MehrKlausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017
Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen
Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)
MehrLösung zum 9. Tutorium
MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Prof. Dr. D. Rost SoSe 5 Blatt 9 9.6.5 Lösung zum 9. Tutorium. Staatsexamensaufgabe Frühjahr 8 Die Vektoren v = 3, und v = 3 R4 spannen einen Unterraum U
MehrLineare Algebra II 11. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2
MehrDiplom VP Numerik 28. August 2006
Diplom VP Numerik 8. August 6 Multiple-Choice-Test Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese Aufgabe
MehrLanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.
Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R. Käppeli L. Herrmann W. Wu Herbstsemester 16 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Prüfung Name a a Note Vorname Leginummer Datum 18.8.17 1 3 4 Total 1P 1P 1P 1P 1P P
MehrKlausur (Modulprüfung) zum Lehrerweiterbildungskurs 4 Lineare Algebra/Analytische Geometrie II SoSe 2016
Name, Vorname Matrikel-Nr. Aufg.1 Aufg.2 Aufg.3 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4 Lineare Algebra/Analytische Geometrie II SoSe 2016 Bearbeiten Sie bitte zwei
MehrNachklausur (Modulprüfung) zum Lehrerweiterbildungskurs 6 Lineare Algebra/Analytische Geometrie I WiSe 2016/17
Name, Vorname Matrikel-Nr. Aufg.1 Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Nachklausur (Modulprüfung) zum Lehrerweiterbildungskurs 6 Lineare Algebra/Analytische Geometrie I WiSe 2016/17 Bearbeiten
MehrErweiterungen der LR-Zerlegung
Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
MehrDiplom VP Numerik 27. August 2007
Diplom VP Numerik 27. August 2007 Multiple-Choice-Test 30 Punkte Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
MehrLineare Algebra I für Mathematiker Lösungen
Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation
MehrMathematik I für MB/ME
Mathematik I für MB/ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 25/26 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr3 Die Lösung der diskreten Poisson-Gleichung
Finite Elemente I 90 3 Die Lösung der diskreten Poisson-Gleichung Die Galerkin-Matrix der FE-Diskretisierung der Poisson-RWA (2.1) ist symmetrisch und positiv-definit (gilt nicht notwendig für andere Dgln.)
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
Mehr7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)
Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl
MehrMathematik I für MB und ME
Mathematik I für MB und ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 28/29 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
MehrKarlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning
Karlsruher Institut für Technologie (KIT) WS 22/3 Institut für Analysis 28..23 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik I für die Fachrichtung Physik 4. Übungsblatt (letztes Blatt)
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
MehrSerie 8: Online-Test
D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
MehrAufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.
Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )
Mehreine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.
Eigenwert, Eigenvektor In der Regel hat bei einer linearen Abbildung das Bild eines Vektors eine andere Richtung als das Original r. Bei der Untersuchung der geometrischen Eigenschaften von linearen Abbildungen
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrNumerik II. Roland Pulch
Numerik II Roland Pulch Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Skript zu Iterativer Lösung linearer Gleichungssysteme
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen
Hannover, den 0. April 2006. Übungsblatt: Lineare Algebra II Abgabe: 24./25.4.2006 in den Übungsgruppen ( ) 2 5 a) Zeigen Sie, dass A = und B = 2 ( 7 6 invertierbare Matrix T an mit T AT = B. b) Zeigen
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrMusterlösung für die Klausur vom 31. März. (a) Wir bestimmen zunächst einen Normalenvektor von E 1 :
Musterlösung für die Klausur vom 3. März Aufgabe (a) Wir bestimmen zunächst einen Normalenvektor von E : AB AC 3 2 = 2 =. 2 2 Dieser ist der Richtungsvektor der gesuchten Geraden, also hat diese die Parameterdarstellung
MehrUniversität Tübingen Tübingen, den Mathematisches Institut D. Mansour, J. Seyrich
Universität Tübingen Tübingen, den 03.07.2013 Mathematisches Institut D. Mansour, J. Seyrich Probeklausur zu Algorithmen der Numerischen Mathematik SS 2013 ID Nummer: 1 Name:.........................................
MehrOptimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
MehrVariante A. Hinweise
Lehrstuhl C für Mathematik (Analysis Prof Dr Holger Rauhut Aachen, den 373 Wiederholungsklausur zur Höheren Mathematik I SoSe 3 Variante A Hinweise Zugelassene Hilfsmittel: Als Hilfsmittel zugelassen sind
MehrLineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.
b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x
MehrLösungsvorschläge zur Klausur. Lineare Algebra, Herbst 2010
Lösungsvorschläge zur Klausur Lineare Algebra, Herbst 200 I. Es seien n eine natürliche Zahl, M = {,..., n} N und S n die Gruppe der Permutationen der Menge M. Zeigen Sie: a) Für jedes a M ist H a := {σ
MehrMatrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung
Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten
MehrLösungen zu Blatt 13 der Übungen zur Vorlesung Numerik, LMU München, Wintersemester 2016/2017
Lösungen zu Blatt 13 der Übungen zur Vorlesung Numerik, LMU München, Wintersemester 01/017 Peter Philip, Sabine Bögli. Januar 017 1. 10 Punkte) a) Betrachten Sie R mit der Maximumsnorm. Berechnen Sie die
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrWiederholungsserie II
Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095
MehrÖkonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrProbeklausur zu Mathematik 2 für Informatik
Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
MehrLösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
MehrNumerische Mathematik für Ingenieure (SoSe 2013)
Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files
MehrD-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 14 Manfred Einsiedler. Musterlösung 8. i=1. w 2, w 2 w 2 =
D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 14 Manfred Einsiedler Musterlösung 8 1. Wir konstruieren eine Orthogonalbasis aus der Basis (v 1, v 2, v ) mit dem Gram- Schmidt-Verfahren. Wir wenden die Formel
MehrEinführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)
Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte
MehrKontrollfragen und Aufgaben zur 3. Konsultation
1 Technische Universität Ilmenau Fakultät für Mathematik und Naturwissenschaften Institut für Mathematik Prof. Dr. Michael Stiebitz Kontrollfragen und Aufgaben zur 3. Konsultation Termin: Ort: Determinante
MehrPCG Verfahren. B ist symmetrisch positiv definit. Eine Matrix-Vektor-Multiplikation mit B hat geringen Aufwand
PCG Verfahren Zur Verbesserung des Konvergenzverhaltens des CG-Verfahrens, wird in der Praxis oft ein geeigneter Vorkonditionierer konstruiert. Vorraussetzungen an einen Vorkonditionierer B sind: B ist
Mehr