Lineare Ausgleichsprobleme

Größe: px
Ab Seite anzeigen:

Download "Lineare Ausgleichsprobleme"

Transkript

1 Kapitel Lineare Ausgleichsprobleme Einführung Bemerkung Aufgabenstellung, Motivation Bei linearen Ausgleichsproblemen handeltes sichebenfalls um Bestapproximations Probleme Allerdingsist hier keine Funktion gegeben, welche optimal durch eine andere Funktion approximiert werden soll Stattdessen hat man eine Menge von Punkten, die durch eine (einfache Funktion optimal approximiert werden sollen Oft will man in Anwendungen etwa den Verlauf einer abhängigen Größe y = f(t, wobei t die Zeit ist, durch Linearkombinationen spezieller Funktionen f j (t beschreiben, also n f(t = f j (tx j, j= wobei die Funktionen f j (t vorgegeben sind Nun führt man zu gewissen Zeitpunkten t i Messungen durch und erhält die Messwerte b i, i =,,m Die m Werte könntenauchdurchwiederholungendesexperimentsgewonnenwerden,wobeiman im Allgemeinen damit rechnen muss, dass man für dieselbe Zeit t i (leicht unterschiedliche Werte erhält Aus dem Ansatz folgt b i = n f j (t i x j =: j= n a ij x j, i =,,m j= In der Praxis ist es wegen der unvermeidlichen Mess und Modellfehler sinnvoll, dass die Anzahl der Messungen m groß ist, insbesondere größer als die Anzahl der zu bestimmenden Parameter, also m > n oder sogar m n Man erhält also ein lineares Gleichungssystem der Gestalt Ax = b, A R m n, x R n, b R m, ( wobei man mehr Gleichungen als Unbekannte hat Dieses System besitzt in der Regel keine Lösung Trotzdem möchte man aus den Messungen in geeigneter Weise definierte optimale Werte für die Parameter x j, j =,,n, bestimmen Dieses VorgehennenntmanRegressionunddiedamitberechneteFunktionf(tAusgleichskurve oder Regressionskurve Zur Bestimmung der Parameter minimiert man in der Praxis die Norm des Residuums, zum Beispiel die Euklidische Norm b Aˆx := min x R n b Ax ( 9

2 Eine wichtige Frage ist, ob ˆx eindeutig bestimmt ist Allein durch die Bedingung ( ist dies nicht der Fall Falls zum Beispiel A nicht spaltenregulär ist, rg(a < n, gibt es unendlich viele Lösungen Die Methode der kleinsten Quadrate Definition Kleinste Quadrate Lösung Seien A R m n und b R m Ein Vektor ˆx R n wird Kleinste Quadrate Lösung von ( genannt, falls er ( erfülltunterdiesenvektorenwirdmitx + R n derjenigemitkleinstereuklidischer Norm bezeichnet, das heißt x + := min{ ˆx : ˆx Rn, ˆx erfüllt (} (3 Bemerkung 3 Methode der kleinsten Quadrate Bei der Kleinste Quadrate Lösung minimiert man also das Residuum (oder den Defekt in der Euklidischen Norm In der Praxis sind auch andere Normen von Bedeutung, zum Beispiel in den Wirtschaftswissenschaften oder in der Tschebyscheffschen Ausgleichsrechnung Die Minimierung in der Euklidischen Norm nennt man Methode der kleinsten Quadrate Bemerkung 4 Kern und Bild von A Jetzt müssen die Lösungen ˆx und x + genauer charakterisiert werden Bezeichne den Kern oder Nullraum von A und ker(a = {x R n : Ax = } im(a = {y R m : x R n mit y = Ax} das Bild von A Aus der linearen Algebra ist bekannt, dass im(a = ker ( A T R m, wobei das orthogonale Komplement bezeichnet Des Weiteren sei P : R m im(a der sogenannte Orthogonal Projektor auf im(a Dieser hat die Eigenschaften P = P und P T = P Bemerkung 5 Formulierung als Bestapproximations Aufgabe im Sinne von Kapitel Sei x + eine Lösung von ( mit kleinster Euklidischer Norm Dann ist u = Ax + im(a R m eine Lösung von: Finde u im(a, so dass b u b v v im(a und umgekehrt Dies ist eine Bestapproximations Aufgabe im Sinne von (4 mit V = R m, U = im(a und = Da R m mit dem Euklidischen Skalarprodukt und der damit induzierten Euklidischen Norm ein Hilbert Raum ist, erhält man aus Folgerung 4 sofort die Existenz und Eindeutigkeit der Lösung u der obigen Bestapproximations Aufgabe Allerdings interessiert in der Praxis nicht u R m sondern x + R n Entsprechende Aussagen für x + werden im Folgenden bewiesen

3 Satz 6 Zur Existenz und Eindeutigkeit der Kleinste Quadrate Lösung Seien A R m n und b R m i Es gibt Kleinste Quadrate Lösungen ˆx von ( Die Bedingung ( ist äquivalent zur Lösung des Systems sowie zur Lösung des Systems Aˆx = Pb (4 A T Aˆx = A T b A T (Aˆx b = (5 ii Die allgemeine Kleinste Quadrate Lösung hat die Gestalt ˆx+ker(A Die Lösung x + mit der kleinsten Euklidischen Norm ist eindeutig bestimmt Es gilt x + ker(a Beweis: i Wegen Ax im(a gilt PAx = Ax für alle x R n Damit und mit P T = P folgt Ax b = Ax Pb (I Pb = ( Ax Pb (I Pb,Ax Pb (I Pb = Ax Pb (Ax Pb,(I Pb+ (I Pb = Ax Pb (P(Ax b,(i Pb+ (I Pb = Ax Pb (Ax b, P(I Pb+ (I Pb }{{} =(P P b= = Ax Pb + (I Pb Der letzte Summand hängt nicht von x ab Also bekommt man ein Minimum, wenn Ax Pb möglichst klein ist Da Pb im(a ist, gibt es eine Lösung von Ax = Pb Damit sind die Existenz einer Kleinste Quadrate Lösung sowie die Äquivalenz von ( und (4 gezeigt Äquivalenz von (4 und (5 Sei ˆx eine Lösung von (4 Einsetzen in (5 ergibt A T Aˆx = A T Pb = A T b+a T (P Ib = A T b, da (P Ib im(a = ker(a T Sei andereseits ˆx eine Lösung von (5 Dann gilt = A T (Aˆx b = A T (Aˆx Pb+A T ((P Ib = A T (Aˆx Pb, da (P Ib ker(a T Es folgt (Aˆx Pb ker(a T = im(a Wegen PAx = Ax für alle x R n folgt daraus Aˆx Pb = PAˆx Pb = P (Aˆx b im(a Nach Definition gilt aber auch P (Aˆx b im(a Aus diesen beiden Eigenschaften folgt P (Aˆx b = und damit PAˆx = Aˆx = Pb ii Aus der linearen Algebra ist bekannt, dass die Lösungsmenge von (4 die Gestalt ˆx+ker(A besitzt In diesem affinen Unterraum existiert genau ein Element kleinster Norm x + Dieses ist die Projektion des Nullpunktes auf den Unterraum und es gilt x + ker(a Bemerkung 7 Einschränkung des Definitionsbereiches von A Satz 6 besagt, dass die Lösung von ( eindeutig ist, wenn man den Definitionsbereich von A auf ker(a einschränkt à : A ker(a im(a Die Abbildung à ist sogar bijektiv Damit existiert die Umkehrabbildung A+

4 Definition 8 Verallgemeinerte Inverse, Pseudo Inverse Die Abbildung A + : R m R n, b A + b := Ã Pb = x + wird verallgemeinerte Inverse oder Pseudo Inverse der Matrix A genannt Bemerkung 9 Zur Pseudo Inversen Die Pseudo Inverse existiert für jede Matrix A Sie ist eindeutig bestimmt und stimmt bei nicht-singulären quadratischen MatrizenmitA überein,sieheübungsaufgabenzurberechnungkonkreterpseudo Inversen Zur Berechnung der Kleinsten Quadrate Lösung wird die Pseudo Inverse nicht gebraucht, genauso wenig wie A für reguläre Gleichungssysteme Beispiel Lineare Regression Man soll mit der Methode der kleinsten Quadrate die Regressionsgerade durch die Punkte (,, (,3, (,4, (3,4 bestimmen Die allgemeine Form der Regressionsgeraden ist u(x = u +u x Einsetzen der Punkte liefert vier Bestimmungsgleichungen Au = 3 Jetzt wird (5 angewandt Es gilt A T A = ( 3 ( u u = = b (6 = ( Diese Matrix ist invertierbar, da det(a T A = = Man erhält (A T A = ( Aus (5 erhält man jetzt die kleinste Quadrate Lösung von (6 ( u + u = = (A T A A T b u = ( ( = ( ( 3 = ( 5 4 = ( 5 Die Ausgleichgerade lautet somit u(x = 5+x, siehe Abbildung Bemerkung Normalgleichungen Die Gleichung (5 werden auch Normalgleichungen genannt Ist rg(a = n, so ist rg(a T A = n und (5 ist ein reguläres quadratisches lineares Gleichungssystem mit symmetrischer Systemmatrix Das kann man im Prinzip mit bereits behandelten Verfahren lösen, zum Beispiel mit

5 Abbildung : Ausgleichsgerade im Beispiel dem Cholesky Verfahren oder einem iterativen Verfahren (später in Numerik Ist A eine nicht-singuläre quadratische Matrix, dann gilt jedoch κ ( A T A = (κ (A ÜbungsaufgabeDieKonditionszahlvonA T AistdasQuadratderKonditionszahlvon ( A! Wenn κ (A schon groß ist, dann ist κ A T A noch sehr viel größer Daraus folgt, dass die Rundungsfehler bei direkten Verfahren unnötig groß werden oder dass die Anzahl der Iterationen bei iterativen Verfahren sehr groß sein wird 3 Die QR Zerlegung Bemerkung MotivationManbenötigtzumFindenderKleinsten Quadrate Lösung Verfahren, welche die ursprüngliche Kondition des Problems nicht erhöhen Betrachtet man insbesondere diespektralkonditionszahl, dann sollte man Verfahren mit orthogonalen (unitären Umformungen verwenden, da diese die ursprüngliche Konditionszahl nicht verändern Das bedeutet, dass man nicht wie bei der LU Zerlegung die Matrix A in ein Produkt von zwei Dreiecksmatrizen zerlegt, sondern in ein Produkt einer orthogonalen Matrix und einer Dreiecksmatrix Definition 3 QR Zerlegung Seien A R m n, Q R m m eine orthogonale Matrix und R R m n eine obere Dreiecksmatrix Die Zerlegung A = QR, mit Q T Q = I und R = r r r n r r n r nn r r m r n oder R =, r mm r mn heißt QR Zerlegung von A André Louis Cholesky (

6 Lemma 4 Überblick über Eigenschaften von Orthogonalmatrizen Sei O m (R := { Q R m m : Q T = Q } die Menge der Orthogonalmatrizen in R m m Dann gelten: i Ist Q O m (R, so ist det(q = ii Für Q,Q O m (R gilt Q Q O m (R iii Es gilt Qx = x für alle x R m Orthogonale Matrizen beschreiben Drehungen oder Spiegelungen von Vektoren iv Für jede Matrix A R m m gilt A = QA = AQ v Für jede Matrix A R m m gilt κ (A = κ (QA = κ (AQ vi Für alle Q O m (R gilt κ (Q = Beweis: Übungsaufgaben Bemerkung 5 Lösung eines linearen Gleichungssystems mit QR Zerlegung Sei eine QR Zerlegung A = QR gegeben Dann folgt Ax = b QRx = b Rx = Q T b Das heißt, die Berechnung der Lösung reduziert sich auf die Multiplikation der rechten Seite mit Q T und eine Rückwärtssubstitution (falls A nicht singulär ist Bemerkung 6 Prinzipielle Herangehensweise zur Berechnung einer QR Zerlegung Jetzt muss geklärt werden, wie man eine QR Zerlegung von A berechnet Die Berechnung erfolgt sukzessive mit geeigneten Orthogonalmatrizen Q i O m (R Mit diesen wird A von links multipliziert und schrittweise auf obere Dreiecksgestalt gebracht Man setzt Q = Q i i Zur Konstruktion der Faktoren Q i gibt es unterschiedliche Herangehensweisen Die zwei wichtigsten beruhen auf den beiden geometrischen Interpretationen von Orthogonalmatrizen, siehe Lemma 4 iii Sie sind Householder Spiegelungen, Givens 3 Drehungen Durch diese Verfahren wird die Existenz einer QR Zerlegung auch konstruktiv bewiesen, siehe Satz 37 Das aus der Algebra bekannte Gram Schmidtsche Orthogonalisierungsverfahren ist numerisch nicht gutartig Es existiert eine Modifikation dieses Verfahrens, welche diese Schwierigkeiten überwindet In der Praxis werden aber die Verfahren von Housholder und Givens vorgezogen 3 Householder Spiegelungen Bemerkung 7 Householder Transformation, Householder Spiegelung Das Prinzip der Householder Spiegelungen besteht darin, die Spalten der Matrix A sukzessive auf ein Vielfaches des ersten Einheitsvektors zu transformieren Sei u R m mit u =, dann besitzt diese Transformation die Gestalt Alston Scott Householder ( James Wallace Givens, Jr (9 993 H = I uu T 4

7 Diese Transformation wird Householder Transformation genannt Das Produkt u u u u m uu T = u m u u m u m nennt man dyadisches Produkt Lemma 8 Eigenschaften der Householder Transformation Seien u R m mit u = und H = I uu T R m m Dann gelten i H = H T, ii H = I, iii H T H = I, iv Hy = y, y R m, ist äquivalent zu y T u =, v Hu = u Beweis: Übungsaufgabe Bemerkung 9 Geometrische Deutung Es gilt y = Hx = x u ( u T x = x ( u T x u }{{} R Das heißt, von x wird ein Vektor in Richtung u subtrahiert Abbildung : Geometrische Deutung einer Householder Spiegelung In Abbildung kann man erkennen, dass das Ergebnis y die Spiegelung von x an u ist Bemerkung Erster Schritt einer Householder Transformation Für den ersten Schritt ist ein Spiegelvektor u so zu bestimmen, dass die erste Spalte von A auf den Einheitsvektor e gespiegelt wird, damit die erste Spalte von R die Form (r,,, T erhält Die Aufgabenstellung ist also, u R m so zu finden, dass Zunächst gilt, Lemma 4, iii, Hx = x ( u T x u = βe Hx = βe = x = β e = β = β = ± x 5

8 Aus dem Ansatz folgt ( u T x u = x βe, das heißt u ist ein Vielfaches von x βe Da u = sein soll, folgt u = x βe x βe = x βe x β x Bei der Differenz x βe wird nur die erste Komponente x von x verändert Um dabei Auslöschung zu vermeiden, wählt man das Vorzeichen von β so, dass eine Addition der Beträge stattfindet Sei σ {,} das Vorzeichen von x Dann wählt man β = σ x und es folgt x m x β = σ x +σ x = σ( x + x Für den Nenner gilt nun [ ] x βe = ( x + x +x ++x m [ ] = x + x x + x = x ( x + x Damit wurde Lemma bewiesen Lemma Erster Schritt der Householder Transformation Sei x R m, x, mit x = σ x Dann wird x durch die Matrix H = I auf σ x e abgebildet uu T x ( x + x, u = x+σ x e Beispiel Erster Schritt der Householder Transformation Sei x = x = 3 R 3 = x = = u = +3 = σ = Damit kann man gemäß Lemma sofort das Ergebnis angeben 3 x σ x e = 5 Man hat gesehen, dass man die Matrix H nicht explizit braucht Zur Kontrolle wird in diesem Beispiel die Matrix H berechnet Es gilt 5 5 H = I 4 = 5 6( Damit folgt Hx = = 3 = σ x e 6

9 Bemerkung 3 Fortsetzung der QR Zerlegung Die Elimination in den folgenden Spalten kann analog ausgeführt werden Dabei dürfen aber die bereits behandelten Spalten nicht wieder verändert werden Sei A (k = r r,k r k,k a (k kk a (k mk a (k =: kn a mn (k ( R (k B (k mit R (k R (k (k, B (k R (m k+ (n k+ Mit der Wahl ( H (k Ik :=, H(k R (m k+ (n k+, H(k u (k := (,,,,, }{{}}{{} k m k+ T für die k te Transformation bleiben beim Produkt H (k A (k =: A (k+ die ersten (k Zeilen und Spalten von A (k unverändert Nun wird Lemma auf den Teilvektor a (k kk β H (k = a (k mk angewandt Inl := min{m,n}schrittenerhältmanaufdieseartundweisediezerlegung A (l+ = R (l+ =: R = H (l H (l H ( A A = H ( H ( H (l R =: QR mit der orthogonalen Matrix Q und der oberen Dreiecksmatrix R Man hat r r m r n R =, m n,l = m, r mm r mn R = r r n r nn, m > n,l = n Beispiel 4 Householder Transformation Sei A = 7

10 Nach Lemma gilt u ( = a, +σ a, e = Für die Transformationsmatrix gilt woraus H ( = I u( u (T u ( = I 3 H ( A = folgt Für u ( erhält man u ( = /3 /3 Nach Lemma gilt H ( /3 / e = 3 /3 /3 /3 8 3 e = = /3 = 3 (+ /3 /3 = R 4, Insgesamt folgt H ( H ( A = 3 /3 /3 Bemerkung 5 Praktische Durchführung Die MatrixQwird inder Praxis nicht explizit berechnet Stattdessen speichert man die Vektoren u (k (ohne die oberen Nulleinträge im unteren Dreieck der Matrix bis einschließlich zur Hauptdiagonalen Im oberen Dreieck speichert man die Matrix R, ohne die Hauptdiagonaleinträge Für diese braucht man noch einen zusätzlichen Vektor Im Beispiel 4 wird das Ergebnis in der Form 4 /3 (+ /3 /3, ( 3 /3 abgespeichert Bemerkung 6 Kosten Der aufwändigste Schritt bei der Berechnung der QR Zerlegung mit Householder Spiegelungen ist H (k A (k = A (k u(k u (kt u (k ( A (k = A (k u(k u (k u (kt A (k (7 Alle anderen Kosten sind für große m und n vernachlässigbar Nutzt man alle Informationen, die bekannt sind, so muss man (n k + Skalarprodukte der Länge (m k + für u (kt A (k berechnen, da u (k (m k + 8

11 Nichtnulleinträge hat und A (k noch (n k + Zeilen bzw Spalten besitzt, die transformiert werden müssen Man benötigt also für die Skalarprodukte (m k +(n k + Multiplikationen DannmussdasdyadischeProduktdesErgebnissvektorsderSkalarproduktemitu (k gebildet werden Bevor man dies tut, muss man den kürzeren der beiden Vektoren mit / u (k skalieren Diese Kosten werden vernachlässigt Die Berechnung des dyadischen Produkts bedeutet, dass jede Komponente des einen Vektors mit jeder Komponente des anderen Vektors multipliziert werden muss Dafür benötigt man prinzipiell ebenfalls (m k +(n k + Multiplikationen Im konkreten Fall braucht man sogar die erste Spalte des dyadischen Produkts nicht zu berechnen, da dass Ergebnis der ersten Spalte von A (k+ = H (k A (k klar ist Diese Einsparung ändert jedoch nichts an den asymptotischen Kosten Summiert man im Fall m > n die Kosten aller Schritte von k =,,n, dann benötigt man zur Berechnung von (7 n (m k +(n k + Multiplikationen k= Eine ähnliche Aussage erhält man für m n Damit ergibt sich, dass der Rechenaufwand für die QR Zerlegung im Wesentlichen (nur Terme dritten Grades min{m,n}mn 3 min{ n 3,m 3} Multiplikationen/Divisionen ist Bemerkung 7 Reguläre Systeme Man kann die QR Zerlegung natürlich auch zur Lösung regulärer linearer Gleichungssysteme mit quadratischer Matrix verwenden Eine Pivotisierung ist dabei nicht erforderlich Der Vorteil gegenüber der LU Zerlegung besteht darin, dass sich die Spektralkonditionszahl von A bei der QR Zerlegung nicht vergrößert Der Nachteil ist, dass die QR Zerlegung ungefähr doppelt so teuer ist Bemerkung 8 Berechnung der Kleinste Quadrate Lösung x + HabeA R m n Vollrang, das heißt rg(a = n für m > n und seien ( R A = QR, R =, R R n n Dann ist R regulär Mit Hilfe von Q T wird die rechte Seite zerlegt ( Q T b =, b R b b n Das Produkt Q T b lässt sich aus den gespeicherten Informationen von Q berechnen Wegen der Invarianz der Spektralnorm gegenüber orthogonalen Transformationen erhält man Ax b = QRx b = ( Q Rx Q T b = Rx Q T b ( = R x b = R x b b b + 9

12 Der zweite Summand ist von x unabhängig Also erhält man das Minimum von Ax b mit der Lösung von R x = b = x + = ( R b Auch für den Fall rg(a < n kann man x + mit Hilfe der QR Zerlegung von A berechnen 3 Givens Drehungen Bemerkung 9 Prinzipielle Idee Das Prinzip von Givens Drehungen besteht darin, die Spalten von A durch ebene Drehungen sukzessive in Achsenrichtung zu bringen Im Gegensatz zur Householder Transformation werden nicht alle Elemente einer Spalte, die unterhalb der Diagonalen sind, auf einmal auf Null abgebildet, sondern jedes Element wird einzeln abgebildet Bemerkung 3 Ebene Drehungen Sei x = (x,x T = (rcos(φ,rsin(phi T R gegeben Gesucht ist eine Matrix, die diesen Vektor in Richtung von e dreht Aus der linearen Algebra ist bekannt, dass der geeignete Ansatz zur Lösung dieser Aufgabe die folgende Gestalt besitzt (Drehungsmatrix ( c s s c ( x x = ( c s s c ( rcos(φ rsin(φ = ( r mit r = x und φ = arg(x [,π Als Lösung erhält man (zwei Gleichungen für zwei Unbekannte Man rechnet leicht nach, dass ( cos(φ sin(φ sin(φ cos(φ c = cos(φ = x r, s = sin(φ = x r = ( x x x x x eine orthogonale Matrix ist Damit besitzt sie alle Eigenschaften aus Lemma 4 Insbesondere folgt aus Eigenschaft i, dass c +s = Bemerkung 3 Vermeidung von Rundungsfehlern Um Rundungsfehler infolge der Multiplikation und Division großer Zahlen zu vermeiden, implementiert man die Berechnung von c und s wie folgt: if x == and x == c=; s=; % Einheitsmatrix end if abs(x >= abs(x t = x/x; s = /sqrt(+t*t; % s ist positiv c = s*t; else t = x/x; c = /sqrt(+t*t; s = c*t; end % c ist positiv 3

13 Dabei nutzt man zum Beispiel die Darstellungen, falls x >, s = x r = x = x +x x /x +, s t = x x = x r x r = c Man beachte, dass im obigen Algorithmus je nach Schleife s oder c positiv ist, obwohl x oder x auch negativ sein können Damit erhält man gegebenenfalls eine Drehung in die Richtung e Das ist aber für praktische Rechnungen nicht von Belang, da man an den Nullen in den anderen Richtungen interessiert ist Bemerkung 3 Erweiterung auf höhere Dimensionen, Givens MatrixEineGivens Matrix ist eine Orthogonalmatrix, die durch c s i G ik = R n n s c k gegeben ist Sie bewirkt eine Rotation in der durch e i und e k aufgespannten Ebene Sei x R n, dann folgt mit r = x i +x k, c = x i r, s = x k r, dass G ik x = G ik x x n = x x x i x i cx i +sx k r x i+ (x i +x k x i+ = = x k x k sx i +cx k r x k+ ( x ix k +x i x k x k+ x n Beispiel 33 Givens Drehung eines Vektors Aufgabe sei es, den Vektor 4 x = 3 x n x x i r x i+ x k x k+ x n 3

14 in e Richtung mittels Givens Drehungen zu drehen Man erhält im ersten Schritt 4/5 3/5 5 G = 3/5 4/5 = G x = Im zweiten Schritt ergibt sich 5/ 6 / 6 G 3 = / 6 5/ = G 3 G x = 6 6 Bemerkung 34 QR Zerlegung mit Givens Drehungen Zur Reduktion von A auf obere Dreiecksgestalt geht man folgendermaßen vor Man wendet nacheinander Givens Drehungen an, um die Einträge unterhalb der Diagonalen zu Null zu machen Bei diesem Vorgehen braucht man an den Einträgen unterhalb der Diagonalen nichts zu tun, die bereits Null sind Man erhält G in,k N G i,k A = R = A = G T i,k G T i N,k N R =: QR, R R m n Je nach Verhältnis von m und n und dem Rang von A kann die Dreiecksmatrix unterschiedlich aussehen, vergleiche Bemerkung 3 Beispiel 35 Givens Drehung einer Matrix Betrachte (nachrechnen: Übungsaufgabe A = G4 G Man beachte, dass die Anwendung von G ik die gesamte i te und k te Zeile von A verändert Bemerkung 36 Zur QR Zerlegung und Givens Drehungen Bei der QR Zerlegung mittels Givens Drehungen überschreibt man auch die Einträge der Originalmatrix in geeigneter Art und Weise Man merkt sich natürlich nicht die Givens Matrizen, sondern nur die jeweiligen Zahlen c und s Die QR Zerlegung mit Givens Drehungen ist sehr stabil Eine Pivotsuche ist nicht erforderlich Bei vollbesetzter Matrix A R n n sind die Kosten der QR Zerlegung mit Givens Drehungen O(4n 3 /3 Multiplikationen/Divisionen und O( n Wurzelberechnungen Das ist doppelt so teuer wie mit Householder Spiegelungen Bei Givens Drehungen kann man jedoch bereits vorhandene Nulleinträge in der Matrix gezielt ausnutzen Mit jedem Nulleintrag sinken die Kosten Deshalb verwendetmangivens Drehungenvorallemdort,wonurwenigeMatrixeinträge zu Null gemacht werden müssen Satz 37 Existenz einer QR Zerlegung Sei A R m n Dann gibt es eine orthogonale Matrix Q R m m und eine Dreiecksmatrix R R m n mit A = QR Beweis: Das wurde in diesem Abschnitt durch Konstruktion, mittels Householder Spiegelungen oder Givens Drehungen, bewiesen 3

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Brückenkurs Mathematik. Mittwoch Freitag

Brückenkurs Mathematik. Mittwoch Freitag Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein

Mehr

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

mit Skalarprodukt aus i-tem Zeilenvektor und j-tem Spaltenvektor Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung 4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,

Mehr

1 Transponieren, Diagonal- und Dreiecksmatrizen

1 Transponieren, Diagonal- und Dreiecksmatrizen Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya Rang einer Matrix 1-E1 Ma 1 Lubov Vassilevskaya Unterdeterminante einer nichtquadratischen Matrix M ist eine nichtquadratische 2,3-Matrix: M = 6 2 3 0 5 7 Durch Streichen einer der drei Spalten kann man

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

17. Das Gauß-Verfahren

17. Das Gauß-Verfahren 7 Das Gauß-Verfahren 95 7 Das Gauß-Verfahren Nachdem wir jetzt viele Probleme der linearen Algebra (z B Basen von Vektorräumen zu konstruieren, Morphismen durch lineare Abbildungen darzustellen oder den

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung. 20.0.2011 Inhaltsverzeichnis 1 2 3 4 1 2 3 4 der Matrix A R mxn, m n A = Q R Matrix Q: Q R nxn orthogonale Matrix (Spalten paarweise orthogonal) Q Q T = E Matrix R: R R mxn obere Dreiecksmatrix r 11 r

Mehr

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung Kapitel 3 Lineare Abbildungen Lineare Abbildungen sind eine natürliche Klasse von Abbildungen zwischen zwei Vektorräumen, denn sie vertragen sich per definitionem mit der Struktur linearer Räume Viele

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra Theoretische Fragen zu ausgewählten Themen in Lineare Algebra { Oren Halvani, Jonathan Weinberger } TU Darmstadt 25. Juni 2009 Inhaltsverzeichnis 1 Determinanten................................................

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

Quadratische Matrizen Inverse und Determinante

Quadratische Matrizen Inverse und Determinante Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Matrizen und Determinanten, Aufgaben

Matrizen und Determinanten, Aufgaben Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a). Aufgabe Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = Es gilt det(λa = (λ n det(a det I n = n? Nein (außer für n = Es gilt deti n = det(ab = det A det B? Ja det(a =

Mehr

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme 52 II Lineare Gleichungssysteme II Lineare Gleichungssysteme 10 Matrizen und Vektoren 52 11 Der Gaußsche Algorithmus 58 12 Basen, Dimension und Rang 62 13 Reguläre Matrizen 66 14 Determinanten 69 15 Skalarprodukte

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Übungen zur Linearen Algebra, Kap. 1 bis Kap. 3

Übungen zur Linearen Algebra, Kap. 1 bis Kap. 3 Übungen zur Linearen Algebra, Kap. bis Kap. 3. Gegeben seien die beiden Matrizen Berechnen Sie Lösungen zu Übung 6 3 4, B = ( 3 5 4 A B, B A, (A B, (B A Dies ist fast eine reine Rechenaufgabe. Wir wollen

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation; Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri Lineare Algebra Gymnasium Immensee SPF PAM Bettina Bieri 6. Oktober 2011 Inhaltsverzeichnis 1 Matrizen 1 1.1 Einleitung............................. 1 1.2 Der Begriff Matrix........................ 1 1.2.1

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

2.2 Kern und Bild; Basiswechsel

2.2 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

3.5 Duale Vektorräume und Abbildungen

3.5 Duale Vektorräume und Abbildungen 3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung

Mehr

2.3 Lineare Abbildungen und Matrizen

2.3 Lineare Abbildungen und Matrizen 2.3. LINEARE ABBILDUNGEN UND MATRIZEN 89 Bemerkung Wir sehen, dass die Matrix à eindeutig ist, wenn x 1,...,x r eine Basis ist. Allgemeiner kann man zeigen, dass sich jede Matrix mittels elementarer Zeilenumformungen

Mehr

Orthonormalbasis. Orthogonalentwicklung

Orthonormalbasis. Orthogonalentwicklung Orthonormalbasis Eine Orthogonal- oder Orthonormalbasis des R n (oder eines Teilraums) ist eine Basis {v,..., v n } mit v i = und v i, v j = für i j, d. h. alle Basisvektoren haben Norm und stehen senkrecht

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

2 Matrizenrechnung und Lineare Gleichungssysteme

2 Matrizenrechnung und Lineare Gleichungssysteme Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der

Mehr

8 Lineare Abbildungen und Matrizen

8 Lineare Abbildungen und Matrizen 8 Lineare Abbildungen und Matrizen 8.1 Lineare Abbildungen Wir beschäftigen uns nun mit Abbildungen zwischen linearen Räumen. Von besonderem Interesse sind Abbildungen, die die Struktur der linearen Räume

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

Lineare Abbildungen. Heinrich Voss. Hamburg University of Technology Department of Mathematics. Lineare Abbildungen p.

Lineare Abbildungen. Heinrich Voss. Hamburg University of Technology Department of Mathematics. Lineare Abbildungen p. Lineare Abbildungen Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Department of Mathematics Lineare Abbildungen p. /95 Basiswechsel Es seien V, W endlichdimensionale Vektorräume und

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

9. Übung zur Linearen Algebra II -

9. Übung zur Linearen Algebra II - 9. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).

Mehr

Brückenkurs Mathematik

Brückenkurs Mathematik Brückenkurs Mathematik 6.10. - 17.10. Vorlesung 3 Geometrie Doris Bohnet Universität Hamburg - Department Mathematik Mi 8.10.2008 1 Geometrie des Dreiecks 2 Vektoren Länge eines Vektors Skalarprodukt Kreuzprodukt

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Symmetrische

Mehr

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014 Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Grundlagen der Arithmetik und Zahlentheorie

Grundlagen der Arithmetik und Zahlentheorie Grundlagen der Arithmetik und Zahlentheorie 1.0 Teilbarkeit In diesem Abschnitt werden wir einerseits die ganzen Zahlen an sich studieren und dabei besonders wichtige Zahlen, die Primzahlen, entsprechend

Mehr

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen. Konvex, Konkav, Wendepunkt: Sei f : D R eine Funktion und sei I D ein Intervall. Gilt für alle x 1,x 2 I f ( x1 +x ) 2 2 f(x 1)+f(x 2 ), 2 dann heißt f konvex (linksgekrümmt) in I. Gilt für alle x 1,x

Mehr

Tutorium: Diskrete Mathematik. Matrizen

Tutorium: Diskrete Mathematik. Matrizen Tutorium: Diskrete Mathematik Matrizen Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de Definition I Eine Matrix ist eine rechteckige Anordnung (Tabelle) von Elementen, mit denen man in bestimmter

Mehr

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V. Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung falls und nur falls ist bijektiv, d.h. ihre Matrix ist invertierbar, (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr