6.1 Motivation: Gauss sche Methode der kleinsten Quadrate

Größe: px
Ab Seite anzeigen:

Download "6.1 Motivation: Gauss sche Methode der kleinsten Quadrate"

Transkript

1 6 Ausgleichsrechnung Bisher untersuchten wir Verfahren für Lösung linearer Gleichungssteme Ax b mit quadratischer Matrix A In vielen Anwendungen tritt das Problem auf, lineare Gleichungssysteme zu lösen, wobei Ax b (6 A C m n ist mit r rank(a n m, x C n, b C m, (6 Einfache Beispiele zeigen, dass (6 entweder genau eine, keine oder unendliche viele Lösungen besitzen kann Es ist daher zuerst nach einem Lösungsbegriff fuer (6 zu fragen: was bedeutet es, (6 zu lösen? In der Praxis verlangt man, dass eine Lösung x von (6 das Residuum r(x : b Ax möglichst klein macht 6 Motivation: Gauss sche Methode der kleinsten Quadrate Bei Ausgleichsproblemen handelt es sich um das Problem, m Messdaten (t i, y i, i,, m, mit einem mathematischen Gesetz eines vorgegebenen Typs in Einklang zu bringen Dabei ist die Form des mathematischen Gesetzes bis auf einige Parameter x j, j,, n, festgelegt, welche durch die Messungen bestimmt werden sollen: y(t f(t : n x j Φ j (t (6 j mit vorgegebenen Funktionen Φ j (t Typischerweise tritt dann das Problem auf, dass mehr Messungen gemacht wurden als unbekannte Parameter vorliegen, dh m > n, und die Messungen selbst durch Messfehler nicht exakt dem vorgegebenen physikalischen Gesetz entsprechen Man erhält damit ein überbestimmtes Gleichungssystem, das nicht exakt gelöst werden kann Bei Ausgleichsproblemen handelt es sich darum, die Parameter x j in (6 so zu finden, dass die mathematischen Gesetze von den Messwerten y i möglichst gut erfüllt werden Im vorliegenden Kapitel wird die Gauss sche Methode der kleinsten Fehlerquadrate vorgestellt Diese ist anwendbar bei Problemen, bei denen die zu bestimmenden Parameter x j linear in das mathematische Gesetz f(t, wie in (6, eingehen Beispiel 6 Unter Einfluss der Schwerkraft fliegen geworfene Körper auf Parabeln Hat der Körper die Anfangsgeschwindigkeit v (v x, v y zum Zeitpunkt t am Punkt (, und fliegt er anschliessend nur unter Einfluss der Schwerkraft, so ist er zum Zeitpunkt t > am Ort x v x t, y v y t gt, wobei g die Erdbeschleunigung ist June 7, 7 8

2 6 MOTIVATION: GAUSS SCHE METHODE DER KLEINSTEN QUADRATE 6 tatsaechliche Flugbahn und Messwerte 5 Hoehe ueber Grund 4 i t i [s] y i [m] x Figur 6: Flugbahn eines Körpers und gemessene Positionen Es sei die Anfangsgeschwindigkeit v y und die Erdbeschleunigung g unbekannt; diese sollen aus Messungen bestimmt werden Hierzu wurde die Höhe über Grund des Körpers zu folgenden Zeiten gemessen: Es ergeben sich damit m 7 Gleichungen für die n unbekannten Parameter v y und g: Führt man die Matrix A R 7 mit y i t i v y t i g, i,, 7 A i Φ (t i t i, A i Φ (t i t i, i,, 7, ein, so ergibt sich dh ( vy A g y, ( vy g (64 In Beispiel 6 erhielten wir ein überbestimmtes Gleichungssystem, das keine klassische Lösung hat Die Ausgleichsrechnung liefert nun eine Methode, sinnvolle Lösungen von überbestimmten Gleichungssystemen zu definieren Für m n, A R m n, b R m werde eine Lösung x R n des folgenden überbestimmten Gleichungssystems gesucht: n A ij x j b i i,, m (65 j June 7, 7 9

3 6 NORMALENGLEICHUNGEN Da wir für m > n diese m Gleichungen ia nicht alle exakt erfüllen können, führen wir die sogenanten Residuen r i ein, die messen, inwieweit die i-te Gleichung verletzt ist: In Matrixschreibweise ist dies r i : b i n A ij x j, i,, m j r b Ax, (66 wobei der Residuumsvektor r R m die Komponenten r i hat Wir suchen nach Vektoren x R n, für die das Residuum r möglichst klein (in einer zu wählenden Vektornorm! ist Ein x R n, das das Residuum minimiert, wird Ausgleichslösung von (6 genannt Definition 6 (Ausgleichsproblem Sei eine Norm auf R m Für eine Matrix A R m n und ein b R m heisst das Problem Finde x R n so, dass Ax b Ay b y R n (67 Ausgleichsproblem Eine Lösung x R n eines Ausgleichsproblems heisst Ausgleichslösung Bemerkung 6 Der Lösungsbegriff in (67 ist eine Verallgemeinerung der klassischen Lösung Ist nämlich x R n eine klassische Lösung, dh gilt Ax b, dann ist offensichtlich x ebenfalls eine Lösung von (67 Bemerkung 64 Offensichtlich hängt die Ausgleichslösung von der Wahl der Norm ab, bzgl der das Residuum minimiert wird Im folgenden werden wir bei Ausgleichsproblemen die Norm stets als die -Norm wählen Ein wesentlicher Grund für der Wahl der -Norm, ist, dass ein relativ einfaches Rechenschema entsteht Auch die Namensgebung, Methode der kleinsten Fehlerquadrate erklärt sich aus der Wahl der Norm: Für ist (67 äquivalent zum Minimieren von r m i r i, dh dem Minimieren der Summe der Quadrate der Residuen (Fehler 6 Normalengleichungen Wir wenden uns nun der Frage zu, wie eine Lösung x R n des Problems (67 bestimmt werden kann Hierzu wollen wir eine Gleichung für das gesuchte x R n herleiten Sei x R n eine Lösung von (67 Dann gilt nach Definition Φ(x : b Ax b Ay y R n (68 Wir betrachten nun die Richtungsableitung des Funktionals Φ an einem Minimum x R n in Richtung z R n Wir betrachten dazu Variationen eines Lösungsvektors x von (68 der Form y x + tz, wobei die Richtung z R n beliebig ist mit Norm z und die Schrittlänge von x in Richtung z gegeben ist durch < t R June 7, 7

4 6 NORMALENGLEICHUNGEN Aus (68 folgt dann, dass die Funktion Φ z : R R + t Φ z (t : b A(x + tz ein Minimum bei t hat Wir rechnen dazu nach, dass die Funktion Φ z ein quadratisches Polynom in t ist: es gilt Φ z (t b A(x + tz (b A(x + tz (b A(x + tz (x + tz A A(x + tz (x + tz A b + b b t ( z A Az + t ( z A Ax z A b + ( x A Ax + b b x A b Da Φ z ein Minimum bei t hat, muss also gelten: Φ z ( ( z A Ax z A b z ( A Ax A b (69 Da A Ax A b R m und (69 für jedes z R m gilt, erhalten wir als notwendige Bedingung für die gesuchte Lösung x R m : A Ax A b (6 Gleichung (6 wird als Normalengleichung bezeichnet Wir halten dieses Ergebnis in dem folgenden Satz fest: Theorem 6 Sei m n, A R m n, b R m und n rank(a m Eine Lösung x R n des Ausgleichsproblems (67 erfüllt die Normalengleichung (6 Umgekehrt ist jede Lösung x der Normalengleichung (6 auch Lösung des Ausgleichsproblems (67 Beweis: Obige Herleitung der Normalengleichnung zeigt die Notwendigkeit von (6 dass (6 auch hinreichend für Lösungen des Ausgleichsproblems (67 ist, erkennt man wie folgt Sei x Lösung von (6 und z R n beliebig Eigenschaft (6 impliziert, dass das quadratische Polynom Φ z (t ein Minimum bei t hat Damit ist Ax b Φ z ( Φ z (t b A(x + tz t R Weil z R n beliebig war, schliessen wir weiter Ax b Φ z ( Φ z (t b A(x + tz t R, z R m Also löst x (67 In der Praxis sind die Spalten von A linear unabhängig und damit ist die Matrix A A symmetrisch positiv definit (Beweisen! Es gibt dann nach Satz 6 eine eindeutige Lösung von (67 Das Gleichungssystem (6 kann man zb mithilfe der Cholesky-Zerlegung der SPD-Matrix A A lösen Es ergibt sich dann folgender Algorithmus: June 7, 7

5 6 NORMALENGLEICHUNGEN Algorithmus 6 (Methode der Normalengleichungen input: Matrix A R m n m n (Annahme: Spalten von A linear unabhängig, Vektor b R m, output: x R n mit b Ax b Ay für alle y R n C : A A, Bestimme Cholesky-Faktor L von C mithilfe von Alg 5 (dh LL C b : A b 4 Löse Ly b mithilfe der Vorwärtssubstitution (Alg 5 Löse L x y mithilfe der Rückwärtssubstitution (Alg return (x Beispiel 6 Wir kommen nun auf das Einleitungsbeispiel 6 zurück Für das überbestimmte System (64 ist die gesuchte Normalengleichung A Ax A y ( A A ( A y ( ( Die gesuchte Ausgleichslösung (v y, g des überbestimmten Systems (64 erfüllt nach (6 ( ( ( vy g 865 Die Matrix A A ist in der Tat symmetrisch positiv definit, und die damit eindeutige Lösung (v y, g ist auf 5 Stellen ( ( vy 96 g 9865 Es ist von Interesse, die Komplexität von Algorithmus 6 zu betrachten Tabelle 6 stellt sie unterteilt nach den einzelnen Schritten zusammen Dabei wurde bei der Berechnung von A A ausgenutzt, dass A A symmetrisch ist Man sieht, dass für den Fall m n das Aufstellen der Normalengleichungen (6 (dh die Berechnung von A A und A b die Gesamtkosten dominiert Dieser Fall tritt oft ein, weil in vielen Anwendungen die Anzahl n der zu bestimmenden Parameter relativ klein und die Anzahl m der Messungen gross ist, wie wir schon in Beispiel 6 beobachten June 7, 7

6 6 METHODE DER ORTHOGONALISIERUNG Aufstellen von A A n(n + m Cholesky-Zerlegung von A A 6 n A b mn Vorwärtssubstitution n Rückwärtssubstitution Tabelle 6: Wesentliche Operationen ( eine Addition plus eine Multiplikation bei Lösung eines Ausgleichsproblems mithilfe der Normalengleichung Bemerkung 64 Die Normalengleichung (6 hat eine geometrische Interpretation: Aus A (b Ax folgt, dass das Residuum r b Ax senkrecht auf den Spalten von A steht, dh, das Residuum r ist eine Normale zum von den Spalten der Matrix A aufgespannten Raum Daher erklärt sich die Bezeichnung Normalengleichung Bemerkung 65 In Anwendungen sind die Variablen x i, die im Ausgleichsproblem (67 auftreten, gesuchte Parameter in einem mathematischen Modell Offensichtlich müssen die Parameter linear in das Gesetz eingehen, damit ein Problem von der Form (67 ensteht Manchmal kann bei Gesetzen, in denen die Parameter nicht linear auftreten, durch Umformulieren ein äquivalentes Gesetz hergeleitet werden, bei dem dies der Fall ist Bei Zerfallsprozessen zb ist die Konzentration c(t von der Form c(t c e bt, wobei c die Konzentration zum Zeitpunkt t ist und b die Zerfallsrate angibt Die gesuchten Parameter c, b treten nicht linear auf Durch Logarithmieren erhält man ein Gesetz ln c(t ln c bt, n in dem der Parameter b und der neue Parameter c : ln c linear auftreten Auch bei Gesetzen von der Form y(x c x α mit unbekannten Parametern c, α R kann durch Logarithmieren ein neues Gesetz hergeleitet werden, in dem gesuchte Parameter linear auftreten 6 Methode der Orthogonalisierung Für die Handrechnung bei kleinen Ausgleichsproblemen wendet man meist die Methode der Normalengleichungen an Für grosse, schlecht konditionierte Probleme jedoch werden oft Orthogonalisierungsverfahren eingesetzt Ein wesentlicher Grund hierfür sind die guten Stabilitätseigenschaften von orthogonalen Transformationen Bei Ausgleichsproblemen ist man bestrebt, eine Gleichung für die gesuchte Lösung x R n zu erhalten, die in der Form Bx b (6 June 7, 7

7 6 METHODE DER ORTHOGONALISIERUNG besitzt Hier sollte B R n n eine invertierbare Matrix sein und b R n Die Normalengleichung (6 ist ein solches Beispiel mit B A A, b A b Man muss damit rechnen, dass das Endergebnis x R n fehlerbehaftet ist, weil (selbst wenn A, b nicht fehlerbehaftet sind zum einen beim Aufstellen von B, b Fehler eingeführt werden (zb Rundungsfehler, zum anderen Fehler beim anschliessenden Lösen von (6 verstärkt werden Für das Lösen von Gleichungssystemen haben wir gesehen, dass die Konditionszahl κ(b ein Mass für die Verstärkung von Fehlern in b ist In Anwendungen ist nun oft κ(a A Es ist also von Interesse, Gleichungen von der Form (6 zu finden, bei denen κ(b κ(a A Orthogonalisierungsverfahren leisten dies Dort wird A A nicht aufgestellt, sondern es wird durch orthogonale Transformationen ein Gleichungssystem von der Form Rx b für die gesuchte Lösung x R m hergeleitet Hier ist R R n n sogar eine Rechtsdreiecksmatrix; es gilt zudem (vgl Satz 65: κ(r κ(a A < κ(a A Wir betrachten zuerst den Spezialfall, dass die Matrix A R m n Rechtsdreiecksstruktur hat in dem Sinn, dass ( R A (6 für eine Rechtsdreiecksmatrix R R n n Der Vektor b R m sei analog zerlegt: ( b b, b b R n, b R m n Damit berechnen wir Φ(x b Ax ( b b ( R x ( b Rx b x b Rx + b Ist die Rechtsdreiecksmatrix R R n n invertierbar, so ist die Lösung des Minimierungsproblems (67 offensichtlich gegeben durch die Lösung x R n von Rx b Dh, die gesuchte Lösung x kann durch Rückwärtssubstitution (Algorithmus des Gleichungssystems Rx b bestimmt werden Bei Orthogonalisierungsverfahren wird die Matrix A R m n so mithilfe orthogonaler Matrizen transformiert, dass sie die Gestalt (6 hat Dabei nutzen wir wesentlich aus, dass orthogonale Matrizen die -Norm nach Proposition 4 invariant lassen: Theorem 6 Sei m n, A R m n mit linear unabhängigen Spalten, b R m Sei Q O m eine orthogonale Matrix und R R n n Rechtsdreiecksmatrix, so dass gilt: ( R QA June 7, 7 4

8 Sei ferner der Vektor b Qb R m wie folgt partitioniert: Qb ( b b, b R n, b R m n 64 QR-FAKTORISIERUNG Dann ist die Lösung x R n des Ausgleichsproblems (67 die eindeutige Lösung des Dreieckssystems Rx b Beweis: Unter Ausnutzung von Q Q und der Tatsache, dass Anwendung einer Unitären Matrix Q die Euklidische Länge eines Vektors invariant lässt (vgl Proposition 4 berechnen wir b Ax Q (Qb QAx Qb QAx ( b b ( R x Also ist das ursprüngliche Ausgleichsproblem (67 äquivalent zu einem Ausgleichsproblem von der oben betrachteten Form Da die Spalten von A linear unabhängig angenommen waren, ist die Rechtsdreiecksmatrix R invertierbar (Übung: Man überzeuge sich davon! Die Aussage des Satzes folgt somit Satz 6 legt eine weitere Methode nahe, wie das Ausgleichsproblem (67 gelöst werden kann Man konstruiert eine orthogonale Matrix Q O n, so dass QA die Rechtsdreiecksgestalt (6 hat Die QR Zerlegung einer Matrix A R m n mit vollem Spaltenrang n kann berechnet werden durch den Gram-Schmidt Algorithmus Algorithmus 5 Da dieser Algorithmus, wenn er einer Gleitkommaarithmetik F ausgeführt wird, anfällig ist für Rundungsfehler, berechnet man die QR Zerlegung einer Matrix in der Praxis dadurch, dass man Q ähnlich dem Faktor L in der LR Zerlegung quadratischer Matrizen, durch sukzessives akkumulieren, oder aufmultiplizieren, elementarer Eliminationsmatrizen aufbaut Dies resultiert in der QR Faktorisierung der Matrix A 64 QR-Faktorisierung Die Grundidee bei der LR-Zerlegung als Lösungsverfahren von linearen Gleichungssystemen war, die Matrix A so in zwei Faktoren L und R zu zerlegen, dass jeder der beiden Faktoren einfach zu invertieren ist Neben der LR-Zerlegung und ihren Varianten gibt es noch eine weitere grosse Klasse von Zerlegungen, die sog QR-Zerlegungen bei der eine Matrix A als A QR faktorisiert wird Hier ist R wieder eine Rechtsdreiecksmatrix während Q eine orthogonale Matrix ist 64 Orthogonale Matrizen Definition 64 (orthogonale Matrizen Eine Matrix Q R m m heisst orthogonal, falls Q regulär ist und Q Q Die Spalten von Q bilden somit eine Orthonormalbasis des R m Die Menge der orthogonalen m m Matrizen bezeichnet man mit O m June 7, 7 5

9 64 QR-FAKTORISIERUNG Offensichtlich sind orthogonale Matrizen einfach zu invertieren Ein Beispiel für orthogonale Matrizen haben wir bereits in Abschnitt kennengelernt: Lemma 4, (ii zeigt, dass Permutationsmatrizen orthogonale Matrizen sind Eine wichtige Eigenschaft von O m ist, dass sie eine Gruppe bzgl der Multiplikation bildet: Theorem 64 O m ist eine Gruppe bzgl der Multiplikation, dh I m ist eine orthogonale Matrix, zu jedem Q O m existiert Q O m und für Q, Q O m ist Q Q O m Beweis: Übung Orthogonale Matrizen kann man zb wie folgt erzeugen: Theorem 64 Sei k N, m k +, Q O m k Dann ist die Matrix I k Q ein Element von O m Beweis: Übung Kann eine Matrix A R m n in der Form A QR zerlegt werden mit orthogonaler Matrix Q O m und Rechtsdreiecksmatrix R R n, dann kann ein Gleichungssystem Ax b einfach aufgelöst werden: Löse Qy b durch Bilden von y Q b Q b Löse das Dreieckssystem Rx y mithilfe von Algorithmus Verfahren, die für eine Matrix eine QR-Zerlegung finden, heissen auch Orthogonalisierungsverfahren Das Vorgehen zur Lösung linearer Gleichungssysteme ist demnach ähnlich dem der Gauss-Elimination Warum sollte man Orthogonalisierungsverfahren neben der Gauss schen Elimination benutzen, um lineare Gleichungssysteme zu lösen? Die Antwort liegt in der numerischen Stabilität der QR Zerlegung: während für Linksdreiecksmatrix L L m in der GEM die Matrixnorm L unter Umständen sehr gross werden kann, ist eine für die Numerik wesentliche Eigenschaft orthogonaler Matrizen gerade, dass sie die -Norm eines Vektors unverändert lassen: Proposition 4 zeigt, dass die Anwendung einer orthogonalen Matrix auf einen fehlerbehafteten Vektor x den Fehler nicht verstärkt: Q(x + x Qx Qx Q x Qx x x Die Multiplikation mit einer orthogonalen Matrix ist somit numerisch stabil Diese Stabilitätseigenschaft ist einer der Hauptgründe für den Einsatz von orthogonalen Matrizen in der Numerik Wie konstruiert man nun die Matrix Q in der QR Zerlegung von A? Wie die Matrix L in der GEM baut man auch Q durch sukzessives Aufmultiplizieren elementarer orthogonaler Matrizen auf Für die elementaren Matrizen gibt es zwei Konstruktionsmöglichkeiten: Householder- Reflexionen sowie Givens-Rotationen Wir diskutieren im Folgenden die Householder-Reflexionen und behandeln die Givens Rotationen später, bei den Eigenwertproblemen June 7, 7 6

10 64 Orthogonalisierung mit Householder-Reflexionen 64 QR-FAKTORISIERUNG Beim Orthogonalisieren mit Householderreflexionen wird eine QR-Zerlegung einer Matrix erzeugt, bei der die orthogonale Matrix Q das Produkt von sog Householder-Reflexionen ist Es gilt: Theorem 644 (Eigenschaften von Householder-Reflexionen Sei v R n Dann hat die Householder-Reflexion folgende Eigenschaften: Q ist symmetrisch, dh Q Q Q ist orthogonal, dh Q Q Q : I n v v vv Q ist involutorisch, dh Q I m Beweis: Übung Bemerkung 645 Die Householder-Reflexionen haben eine geometrische Interpretation: Als lineare Abbildung gesehen, stellen sie eine Spiegelung ( Reflexion an der Hyperebene H : {x R n x v } dar In der Tat rechnet man nach: Für x H gilt Qx x und für x parallel zu v gilt Qx x Eine QR-Zerlegung einer quadratischen Matrix A R n n wird mithilfe von Householder- Reflexionen erzeugt, indem man schrittweise die Matrix A R n n durch Multiplikation mit orthogonalen Matrizen Q,, Q n auf rechte Dreiecksgestalt bringt Zu diesem Zweck nehmen wir an, dass man für jede Spalte a R k, k n, eine Householder-Reflexion Q finden kann, so dass Qa αe ist, wobei α R und e R k der erste Einheitsvektor ist (dies werden wir unten in Lemma 646 zeigen Dann können wir wie folgt vorgehen: sei a die erste Spalte von A Nach Annahme können wir ein Q O n finden, so dass die Householder-Reflexion Q a α ( e für ein α ( R Das Produkt Q A hat damit folgende Struktur: α ( (b ( A ( mit A( R (n (n und b ( R n (64 Um weiter in Richtung Dreiecksgestalt zu transformieren, wiederholt man den Prozess für die Untermatrix A ( Dazu beobachten wir, dass für jede Matrix Q ( O n die Matrix Q : Q (, Householder, Alston Scott June 7, 7 7

11 64 QR-FAKTORISIERUNG nach Satz 64 orthogonal ist und zudem α ( (b ( Q ( A ( α ( (b ( Q ( A ( ist, wobei b ( derselbe Vektor ist wie in (64 Man wählt also Q ( O n wieder mithilfe obiger Annahme so als Householder-Reflexion, dass genau wie im ersten Schritt das Produkt Q ( A ( in der ersten Spalte bis auf den Eintrag ganz links oben nur Nullen enthält Wählt man Q mit diesem Q (, dann hat das Produkt Q Q A die Form Q Q A α ( b ( b ( b ( n α ( b ( b ( n A ( wobei (b (,, b( n (b( wieder der Vektor aus (64 ist Man wird nun weiter verfahren, um die Matrix A ( zu behandeln Dabei werden die Zeilen (b (, (b ( nicht mehr verändert Sie sind somit bereits Zeilen der gesuchten Rechtsdreiecksmatrix Man setzt diesen Prozess so lange fort, bis die Matrix Q n Q A Rechtsdreiecksgestalt hat Somit ist die gesuchte QR-Zerlegung von A R n n : A Q Q n R Q Q n R, wobei R eine Rechtsdreiecksmatrix ist und die Matrizen Q k folgende Bauart haben: I k Q k I n k+ v k v v k v k, v k R n k+ % Konvention: Q I n v v v v k (644 Es bleibt zu zeigen, dass man in jedem der obigen Schritte die Matrizen Q,, Q n wie gefordert als Householder-Reflexionen wählen kann, Lemma 646 Sei a R k und e R k der Einheitsvektor Sei α a oder α a Im Falle a e sei α a gewählt Dann gilt für v : a αe : Qa αe Q I k v v vv (645 Beweis: Die Wahl von α impliziert, dass v Die Behauptung Qa αe kann dann direkt nachgerechnet werden (Übung: man rechne dies nach!, und das Lemma ist damit bewiesen Zur Motivation der Formeln für α und v stellen wir jedoch folgende Betrachtungen an, welche zudem klären, inwieweit die Householder-Reflexion eindeutig ist, die Qa αe leistet Wir zeigen: June 7, 7 8

12 64 QR-FAKTORISIERUNG Die Householder-Reflexionen, die zu einem Vektor v und zu λv, λ R \ {} gehören, stimmen überein Ist a nicht parallel zu e, dann muss die Householder-Reflexion Q, die a auf ein Vielfaches von e abbildet, von einem Householder-Vektor v λ(a αe, λ R \ {}, α ± a, erzeugt werden Ist a parallel zu e, so muss der Householder-Vektor v von der Form v λe, λ R \ {} sein, oder er muss v e v a erfüllen Die erste Behauptung, dass die Länge von v irrelevant ist, folgt unmittelbar aus der Definition der Householder-Reflexion Für die beiden anderen Behauptungen beobachten wir, dass orthogonale Matrizen nach Proposition 4 die Euklidische Länge erhalten, dh Somit ergibt sich für α: Aus (645 folgt zudem αe Qa a Qa αe α α ± a ± a a ( I k v v vv a a v v (v a v (646 Wir betrachten nun die Fälle v a und v a separat Im Fall v a erhalten wir v span (αe a, dh es muss gelten v λ(a αe wie behauptet Falls a parallel zu e ist, impliziert dies insbesondere v λe für ein geeignetes λ R \ {} Im Fall v a schliessen wir aus (646, dass a parallel zu e ist Wie oben behauptet, bildet in diesem Fall die Householder-Reflexion zu jedem v mit v a den Vektor a auf ein Vielfaches von e ab Lemma 646 zeigt, dass die Householder-Reflexion, die einen Vektor a auf ein Vielfaches des Einheitsvektors e abbildet, nicht eindeutig ist Die verbliebenen Freiheiten bei der Wahl des Householder-Vektors v nutzt man aus, um numerische Stabilität bei der Bestimmung von v zu gewinnen und um bei der Speicherung der Vektoren v Platz zu sparen: Bei der Bestimmung von v mithilfe von Lemma 646 wählt man in der Praxis α sign(a a a, um Auslöschung bei der Auswertung von v (a α, a,, a k zu vermeiden Die Länge von v R k ist nicht wesentlich, dh die Householder-Reflexionen, die zu v und zu λv, λ, gehören, stimmen überein Die Wahl α sign(a a impliziert insbesondere, dass v a +sign(a a Man kann also v so normieren, dass v Wir definieren sign(x für x und sign(x für x < June 7, 7 9

13 64 QR-FAKTORISIERUNG Aus diesen beiden Überlegungen ergibt sich schliesslich, dass man den Householder-Vektor v R k, dessen zugehörige Householder-Reflexion a auf αe abbildet, so wählt: v : β (a αe, α sign(a a a, β a + sign(a a a (647 Für die QR-Zerlegung wählen wir die Householder-Vektoren wie in (647; auf diese Weise ist die erste Komponente gleich Der Grund hierfür ist, dass auf diese Weise eine effiziente Abspeicherung der gesamten Information über die QR-Zerlegung einer Matrix A direkt auf dem Speicher der Matrix A möglich ist: Im Speicherbereich A ij mit i j kann der Faktor R abgelegt werden, und der Speicherbereich von A ij, i > j fasst die wesentliche Information der Householder-Vektoren v k (dh die Einträge (v k i, i,, n k + von v k R n k+ Der Algorithmus zur Bestimmung einer QR-Zerlegung einer n n-matrix ist damit festgelegt Wir formalisieren das Vorgehen in Algorithmus 647 Algorithmus 647 (QR-Zerlegung mit Householder-Reflexionen input : Matrix A R n n, A invertierbar output: überschreibt A mit der wesentlichen Information für QR-Zerlegung: QA R mit Q Q n Q mit Q j von der Form (644 R ij A ij für i j Vektoren v j R n j+ aus (644: (v j i j+ A ij für i > j und implizit (v j for k from to n do { v(k : n house(a(k : n, k % bestimme Householder-Vektor v k A(k : n, k : n house mult(a(k : n, k : n, v(k : n % berechne α (k, b (k, A (k A(k + : n, k v(k + : n %speichere nur wesentliche Information von v k (v k } return (A function: v house (a input: Vektor a output: Householder-Vektor v normiert derart, dass die erste Komponente ist n : length(a % a R n α : a ; if α exit( A nicht zulässig! ; v : a β : a( α sign (a( v( : n : v( : n β v( return(v function: A house mult (A, v input: Matrix A, Householder-Vektor v output: überschreibt Matrix A mit (I v v vv A β : /v v w : v A % w ist ein Zeilenvektor A : A + βvw % Rang- update der Matrix A return(a June 7, 7

14 64 QR-FAKTORISIERUNG Kosten für die Berechnung einer QR-Zerlegung: n Multiplikationen Die QR-Zerlegung ist damit ungefähr doppelt so teuer wie eine LR-Zerlegung Sie wird aber trotzdem wegen ihrer numerischen Stabilitätseigenschaften oft angewandt, insbesondere bei Ausgleichsproblemen Mit den Householder-Reflexionen haben wir explizit QR-Zerlegungen von Matrizen konstruiert Wie bei der LR-Zerlegung kann man die Frage stellen, inwieweit QR-Zerlegungen eindeutig sind Da wir bereits in jedem Schritt zwischen zwei verschiedenen Householder-Reflexionen auswählen konnten (der Parameter α war nur bis auf das Vorzeichen festgelegt, bedarf es offensichtlich einer zusätzlichen Normierungsbedingung Verlangt man bei invertierbaren Matrizen, dass die Diagonaleinträge der Rechtsdreiecksmatrix R positiv sein sollen, so ist die Zerlegung eindeutig: Theorem 648 (Eindeutigkeit der QR-Zerlegung Sei A R n n regulär Dann existiert ein eindeutiges Q O n und eine eindeutige Rechtsdreiecksmatrix R mit R ii >, i,, n, so dass QR A Beweis: Aus Algorithmus 647 folgt die Existenz einer QR-Zerlegung Q R A Sei D R n n Diagonalmatrix mit D ii signr ii Dann ist R : DR eine Rechtsdreiecksmatrix mit R ii > D ist orthogonal (D D und D I n Damit ist A Q R Q D DR (Q D R Da D orthogonal ist, ist Q : Q D nach Satz 64 ebenfalls orthogonal Damit ist die Existenz einer QR-Zerlegung der gewünschten Art gezeigt Eindeutigkeit folgt aus Korollar 4: Sei QR A und R ii >, i,, n Die Matrix A A ist SPD Es gilt A A (QR QR R Q QR R R Somit ist R der Cholesky-Faktor von A A Nach Korollar 4 ist R eindeutig; damit ist auch Q AR eindeutig Bemerkung 649 Anstelle der Householder-Reflexionen werden auch Givens-Rotationen zur Orthogonalisierung einer Matrix verwendet Zum Abschluss berechnen wir eine QR-Zerlegung mithilfe von Householder-Reflexionen für ein konkretes Beispiel: Beispiel 64 Sei A Gesucht ist eine QR-Zerlegung von A Unsere Handrechnung stimmt im wesentlichen mit Algorithmus 647 überein Im Unterschied zu Algorithmus 647 normieren wir nicht die Householder-Vektoren v k zu (v k Die erste Spalte von A ist a 4 4, a Also ist α sign(a a sign( 44 4 und damit 4 v a αe , v 6(6 + June 7, 7

15 Die erste Householder-Reflexion ist somit Q I v vv I 6( I + (,, ( ( + ( + 64 QR-FAKTORISIERUNG ( 4 4,, 4 (Man sieht, dass wie erwartet Q eine orthogonale Matrix ist Wir erhalten damit für Q A: Q A Die erste Spalte von Q A stimmt mit αe überein so wurde die Householder-Reflexion Q schliesslich konstruiert! Die erste Zeile von Q A ist bereits die erste Zeile der gesuchten Rechtsdreiecksmatrix R Wir wiederholen nun obiges Vorgehen für die Untermatrix A ( ( + + Die erste Spalte von A ( ist a ( 6, a Also ist nun α sign(a a sign( 4 4 und für v a αe erhalten wir ( v 4 ( ( 6, v Damit ist Q ( Q ( I v I ( ( v v I ( (, ( ( 6, 6 ( Die fehlenden Einträge der gesuchten Rechtsdreiecksmatrix R können somit bestimmt werden: Q ( A ( ( ( ( June 7, 7

16 Die gesuchte Rechtsdreiecksmatrix R ist damit 65 ANWENDUNG AUF AUSGLEICHSPROBLEME R Die orthogonale Matrix Q mit Q A R ist somit Q Q ( Q Zur Probe berechnen wir noch QR (Q (Q (Q, weil Q orthogonal ist! QR A Householder-Reflexionen Q sind Rang- Störungen der Identitätsmatrix; die Inverse Q konnte einfach bestimmt werden (Satz 644, denn sie ist wegen Q Q selbst wieder eine Rang- Störung von I n I n Es gilt der folgende, allgemeinere Zusammenhang für Rang- Störungen invertierbarer Matrizen, die sog Sherman-Morrison-Woodbury Formel: Theorem 64 Sei A R n n regulär, u, v R n Dann gilt: Falls v A u, dann ist (A + uv A Falls v A u, dann ist A + uv nicht regulär + v A u A uv A Beweis: Übung 65 Anwendung auf Ausgleichsprobleme Die QR Zerlegung und Satz 6 legen somit eine weitere Methode nahe, wie das Ausgleichsproblem (67 gelöst werden kann: man konstruiert eine orthogonale Matrix Q O M, so dass QA die Rechtsdreiecksgestalt (6 hat Diese orthogonale Matrix Q kann genauso erzeugt werden, wie bei der QR-Zerlegung in Abschnitt 64: es wird zuerst eine Householder-Reflexion Q konstruiert, die die erste Spalte von A auf ein Vielfaches von e abgebildet Anschliessend June 7, 7

17 65 ANWENDUNG AUF AUSGLEICHSPROBLEME wird eine orthogonale Matrix konstruiert, um die zweite Spalte von Q A auf einen Vektor abzubilden, bei dem alle Einträge mit Ausnahme der obersten beiden Null sind usw Das Vorgehen ist also völlig analog zu Algorithmus 647 der einzige Unterschied besteht darin, dass im vorliegenden Fall einer Matrix A R m n mit m > n nur n Householder-Reflexionen berechnet werden müssen und nicht m wie im Falle einer m m Matrix (Übung: warum reichen im Fall m > n hier n Householder-Reflexionen nicht aus? Algorithmus 65 (QR-Zerlegung mit Householder-Reflexionen input : Matrix A R m n, m > n, Spalten von A linear unabhängig output: orthogonale Matrix Q und Rechtsdreiecksmatrix R R n n mit QR A A ( : A R : R m n for k from to n do { a( : m k + : A (k ( : m k +, %a : Vektor der Länge m k +, der die Spalte von A (k enthält α : sign(a a a v k ( : a( α v k ( : m k + : a( : m k + % v k a αe, e R m k+ ist der Einheitsvektor im R m k+ 4 Q : I m k+ v k v v k v k k 5 berechne B : Q A (k 6 R(k, k : n : B(, : n k + % k-te Zeile von R 7 A (k+ : B( : m k +, : n k + %A (k+ ist die Untermatrix von B, die durch Streichen % der Zeile und Spalte entsteht 8 setze Q k : I k Q % Konvention: Q Q } R(n, n : A (n+ (, setze Q : Q n Q n Q n Q return (Q,R Beispiel 65 Wir führen das Vorgehen wieder mit den Zahlen aus Beispiel 6 vor Aus Platzgründen geben wir nur 4 Ziffern an Wie in Beispiel 64 unterscheidet sich unser Vorgehen hier von Algorithmus 647 June 7, 7 4

18 65 ANWENDUNG AUF AUSGLEICHSPROBLEME dadurch, dass die Householder-Vektoren v k nicht auf (v k normiert werden A Die erste Spalte von A ist a 4 5 9, a 7695 Damit ist α sign( Für v a αe ergibt sich v Die erste Householder-Reflexion ist somit Q I 7 v vv Man berechnet Q A: Q A Die erste Zeile von R ist somit ( 7695, 7 Wir wiederholen obige Schritte für die Untermatrix 8 4 A ( June 7, 7 5

19 Wir setzen a und erhalten damit für v a αe : 65 ANWENDUNG AUF AUSGLEICHSPROBLEME, a 7; α sign(8 7 7 v Somit ist Q ( I 6 v vv Also Q ( A ( 7 Die gesuchte Rechtsdreiecksmatrix R R ist damit ( R 7 Wir erhalten damit für die orthogonale Matrix Q : Setzt man Q ( Q ( Q Q Q June 7, 7 6

20 so gilt nach Konstruktion Wir berechnen ( R QA Qy Q Die gewünschte Partitionierung von Qy ist damit 65 ANWENDUNG AUF AUSGLEICHSPROBLEME ( ( b 744 Qy, b b , b Somit erhalten wir als das zu lösende Gleichungssystem Rx b : ( ( x Aufgelöst nach x (v y, g ergibt sich: x ( Bezüglich der Konditionszahl der Rechtsdreiecksmatrix R aus der QR Zerlegung von A und der Matrix A A aus den Normalengleichungen gilt folgendes Ergebnis Theorem 65 Unter den Annahmen von Satz 6 gilt A A R R σ σ n > die Singulärwerte von A R m n Dann gilt Weiterhin seien Beweis: κ (R σ, und κ (A A (κ (R σ σ n σn Übung Hinweis: Für SPD-Matrizen B gilt nach dem Rayleigh-Ritz Prinzip: λ min (B x Bx min x R m x x, λ x Bx max(b max x R m x x Bemerkung 654 Wir hatten in Abschnitt 64 gesehen, dass die QR-Zerlegung einer invertierbaren Matrix eindeutig ist, falls A vollen Spaltenrang hat und das Vorzeichen der Diagonaleinträge von R festliegt Auch bei Zerlegungen wie in Satz 6 ist die Rechtsdreiecksmatrix R R n n eindeutig, wenn das Vorzeichen der Diagonaleinträge festgelegt ist Wird verlangt, dass R ii >, i,, m, dann ist R der Cholesky-Faktor von A A June 7, 7 7

21 66 RECHTECKMATRIZEN MIT RANGDEFEKT SINGULÄRWERTZERLEGUNG 66 Rechteckmatrizen mit Rangdefekt Singulärwertzerlegun Bisher betrachteten wir Systeme Ax b mit x R n, b R m, A R m n, und m n, sowie rank(a n, etwa aus dem Abgleich eines physikalischen Gesetzes n f(t x j Φ j (t (668 mit m > n Datenpaaren (t i, f i, i : m Insbesondere ist also f(t V : span{φ j (t : j : n} und j A (a ij i:m,j:n mit a ij Φ j (t i (669 Seien nun n r > der Basisfunktionen Φ j (t in (668 linear abhängig, dh die Dimension des Vektorraums V span{φ (t,, Φ n (t} ist r < n Seien weiter σ σ n die Singulärwerte der Matrix A in (669 Dann ist σ r+ σ r+ σ n und, mit einer Lösung x R n von Φ(x : Ax b Ay b y R n (66 ist auch x + z für jedes z, z ker(a Lösung von (66 Eine Zusatzbedingung ist also nötig, um (66 eindeutig lösbar zu machen Wir fordern, dass x unter allen Lösungen von (66 die kleinste Norm hat: finde x R n mit x! min so, dass ist Ax b min y R n Ay b (66 Theorem 66 Sei A R m n, b R m gegeben mit r rang(a < n < m Dann ist x R n gegeben durch x A + b, die eindeutige Lösung von (66 Beweis: Sei A V Σ U die SVD von A Dann ist (66 äquivalent zur Minimierung von Φ(y V Σ U y b V (Σ U y V b Σw V b über alle w U y R n Hieraus folgt, dass Φ(y Φ(Uw r n (σ i w i (V b i + (V b i i ir+ Also ist Φ(y minimal für w i σ i (V b i, i,, r Da U O n, ist y Uw w Also ist y minimal für w r+ w n Somit ist w Σ + V b Lösung, woraus folgt x UΣ + V b June 7, 7 8

22 67 ε-rang einer Matrix 67 ε-rang EINER MATRIX Sind die Basisfunktionen Φ j im linearen physikalischen Gesetz (668 fast linear abhängig oder die Messpunkte t i so, dass sich die Φ j fast nicht auf dem Bereich der t i unterscheiden, haben die Spalten von A noch mathematisch vollen Rang, aber das Ausgleichsproblem ist schlecht konditioniert: kleine Fehler in den Daten können grosse Änderungen im Lösungsvektor des Ausgleichsproblems nach sich ziehen In diesem Fall sind in der SVD A V Σ U (67 von A einige der Singulärwerte σ r+ σ n entweder gleich oder aber sehr klein und daher ist κ (A A (σ /σ n gross: kleine Messfehler in den Daten (f i : i : m werden verstärkt im Lösungsvektor der Normalgleichungen auftreten Sei deshalb jetzt ε > eine Fehlerschranke der f i (zb ist ε ein Messfehler in den Daten; aufgrund von Rundungsfehlern in Gleitkommaarithmetik F gilt übrigens immer ε ε M (F mit dem Maschinenepsilon aus ( Dann definieren wir den ε-rang des Systems {Φ i } auf den Datenpunkten t i wie folgt: r(ε max{k : σ k ε} (67 Offensichtlich ist der ε-rang des Systems {Φ i } eine Verallgemeinerung des mathematischen Rangs der -Rang des Systems entspricht der Dimension des VR span{φ (t,, Φ n (t} Beachte, dass r(ε abhängt von der Wahl der t i sowie der Wahl der Φ j, nicht aber von den Werten f i : r r(ε, {t,, t m }, {Φ,, Φ n } und es gilt natürlich immer r(ε r( rank(a n < m Kann im Falle eines kleinen ε-rangs von A die SVD von A ausser zur Verbesserung der numerischen Stabilität noch weitergehend benutzt werden? In der Tat kann man mittels der Singulärvektoren u,, u r(ε, also den ersten r(ε Spalten der Matrix U [u,, u n ] in der SVD (67 von A, aus dem Vektor Φ(t : (Φ (t,, Φ n (t der Basisfunktionen Φ j (t die r(ε dominanten Basisfunktionen für den VR span{φ,, Φ n } herausziehen: es sind dies die Funktionen φ j (t : u j Φ(t, j,, r(ε wobei u j die j-te Spalte der Matrix U in der SVD von A ist June 7, 7 9

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung 4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte. Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

4 Affine Koordinatensysteme

4 Affine Koordinatensysteme 4 Affine Koordinatensysteme Sei X φ ein affiner Raum und seien p,, p r X Definition: Nach ( c ist der Durchschnitt aller affinen Unterräume Z X, welche die Menge {p,,p r } umfassen, selbst ein affiner

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11 Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)

Mehr

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Überbestimmte lineare Gleichungssysteme

Überbestimmte lineare Gleichungssysteme Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme

Mehr

Quadratische Matrizen Inverse und Determinante

Quadratische Matrizen Inverse und Determinante Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr

2.2 Kern und Bild; Basiswechsel

2.2 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare

Mehr

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R

Mehr

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix.

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix. LINEARE ALGEBRA Lösbarkeit von linearen Gleichungssystemen Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix Gleichungssysteme

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

Kapitel 11. Bilinearformen über beliebigen Bilinearformen Kapitel 11 Bilinearformen über beliebigen Körpern Wir können in diesem Kapitel rasch vorgehen, weil die meisten Konzepte im Zusammenhang mit Sesquilinearformen bereits eingeführt wurden. In diesem Abschnitt

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 206 Lineare Algebra und analytische Geometrie II Vorlesung 33 Das Kreuzprodukt Eine Besonderheit im R 3 ist das sogenannte Kreuzprodukt, das zu zwei gegebenen Vektoren

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Vorkurs Mathematik B

Vorkurs Mathematik B Vorkurs Mathematik B Dr. Thorsten Camps Fakultät für Mathematik TU Dortmund 20. September 2011 Definition (R n ) Wir definieren: 1 Der R 2 sei die Menge aller Punkte in der Ebene. Jeder Punkt wird in ein

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

31 Polynomringe Motivation Definition: Polynomringe

31 Polynomringe Motivation Definition: Polynomringe 31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

Zeitreihenökonometrie

Zeitreihenökonometrie Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12

Mehr

Lineare Algebra I Klausur. Klausur - Musterlösung

Lineare Algebra I Klausur. Klausur - Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra I Klausur Klausur - Musterlösung 20. Februar 203 Aufgabe - Lösung Aussage wahr falsch (Z, +, 0) ist eine abelsche Gruppe. Der Ring Z/24Z ist nullteilerfrei.

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und 7. Coxeter Graphen Um die endlichen Spiegelungsgruppen zu klassifizieren, wollen wir ihnen nun Graphen zuordnen, die die Gruppen bis auf Isomorphie eindeutig bestimmen. Im Folgenden sei wie vorher Π Φ

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1 Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4

Mehr

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl. Unterräume und Lineare Hülle 59 3. Unterräume und Lineare Hülle Definition.1 Eine Teilmenge U eines R-Vektorraums V heißt von V, wenn gilt: Unterraum (U 1) 0 U. (U ) U + U U, d.h. x, y U x + y U. (U )

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 014/015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 7 Abgabetermin: Freitag, 05.1.014, 11 Uhr Aufgabe 7.1 (Vektorräume

Mehr

Lösungen zum 5. Aufgabenblatt

Lösungen zum 5. Aufgabenblatt SS 2012, Lineare Algebra 1 Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 2014/2015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 10 Abgabetermin: Freitag, 16.01.2015, 11 Uhr Auf diesem

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Abbildungen. i=0 c ix i n. K n K m Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht

Mehr

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A.

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A. Lineare Hülle Def A sei eine nichtleere Teilmenge des Vektorraums (V,+, ) Die lineare Hülle von A (Bezeichung: span(a)) ist die Menge aller Linearkombinationen der Elemente aus A { k } span(a) := λ i v

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle 2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische

Mehr