QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof.

Größe: px
Ab Seite anzeigen:

Download "QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof."

Transkript

1 QR-Algorithmus Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann 1

2 Im Laufe der Jahre wurde immer wieder versucht, die Möglichkeiten zur Berechnung von linearen Ausgleichs - und Eigenwertproblemen zu verbessern und zu gestalten, da diese vielseitig und auch vielfältig auftreten. Bis dann nach einigen früheren Verfahren der Mathematiker Francis 1961 den QR - Algorithmus, so wie er heute bekannt ist, verö entlichte. Die Grundidee bestand darin eine Matrix so umzuformen das eine obere Dreiecksmatrix entsteht, in der man die Eigenwerte aus der Diagonalen ablesen kann. Bei dieser Umformung ist allerdings zu beachten, dass sich die Eigenwerte der Matrix nicht verändern. Das heißt es muss sich um orthogonal-ähnliche Matrizen handeln. Die bekanntesten Verfahren dazu sind wohl die Berchnung nach Householder, Givens und das Gram-Schmidt-Verfahren, wobei ich mich jetzt auf das Verfahren nach Givens konzentrieren darf und soll. Wir gehen im Folgenden auch davon aus, dass wir als zu berechnende Matrix bereits eine speziellere Form zur Verfügung haben, es handelt sich also im Folgenden fast ausschließlich um die sogenannten Hessenberg ( H ) oder eine symmetrische, tridiagonale ( J ) Matrix. Die Vorgehensweise ist dadurch beschrieben, dass wir eine Folge von orthogonal-ähnlichen Matrizen bilden, die gegen eine Grenzmatrix konvergieren, aus der wir die gesuchten Eigenwerte leicht ziehen können. Als Voraussetzungen und zur anschließenden praktischen Durchführung haben wir jedoch zu Beginn einige grundlegenden Sachverhalte und Tatsachen zu beschreiben und begründen. Mit eben diesen möchte ich mich jetzt beschäftigen und wir fangen auch mit der grundlegenden Existenz an. Satz 1 Jede quadratische Matrix A lässt sich als Produkt einer orthogonalen Matrix Q und einer Rechtsdreiecksmatrix R in der Forum A= QR darstellen. Man bezeichnet dieses als QR - Zerlegung. 2

3 Beweis: ( dieser Beweis wird hier angeführt aber nicht in dem Pro-Seminar dargestellt da es sich um einen Satz handelt, der bereits in der Vorlesung erklärt wurde, dort im Skript in Abschnitt 9) Diese Existenz zeigen wir konstruktiv. Dazu wählen wir geeignete Rotationsmatrizen U T (p; q; ') und multipizieren damit von links, sodass die Matrixelemente unterhalb der Diagonalen eleminiert werden. z.b. Kolonenweise X X X X X X X X X X X 1 0 X XA X X X 0 X X 0 0 X mit (p,q) - Rotationsmatrizen und den entsprechenden Rotationsindexpaaren (1,2), (1,3),... (2,3), (2,4),... (n-1,n) (k 1) zur Elimination des Matrixelementes a ij in A (k 1) nutzen wir U T K = UT (j,i;' K ) A (k) = U T K A(k 1) ; A (0) = A, k = 1; 2; :::; 1 2 n(n 1). Dabei werden, wie schon bekannt ist, nur die j-te und die i-te Zeile linear kombiniert. Deshalb a (k) (k 1) (k 1) ij =a jj sin ' k +a ij cos ' k = 0 Sobald a (k1) ik = 0 ist macht man keine weiteren Multiplikationen mehr und es ist U K = I zu setzen. Überlegung: Die ersten (n-1) Mulitplikationen eleminieren a i1 mit 2 i n Bei der Elimination von a ij der j-ten Spalte mit i > j geschieht durch Linksmultiplikation mit einer (j,i) Rotationsmatrix. Bei allen (j-1) Kolonnen werden nur die Elemente kombiniert, die nach Annahme verschwinden. Deshalb bleiben die erzeugten Nullen auch erhalten und es gilt U T N U T N 1 :::U T 2 U T 1 A (0) = R: Wir vereinfachen die Sache in dem wir die Matrix Q de nieren mit Q T := U T N U T N 1 :::U T 2 U T 1 und da sie aus dem Produkt orthogonaler Matrizen entsteht ist sie ebenfalls Orthogonal. Damit ist die Existenz der QR - Zerlegung A (0) = A = QR bewiesen. 3

4 Satz 2 Die QR - Zerlegung einer Hessenbergmatrix H oder einer tridiagonalen Matrix J der Ordnung n ist mit (n-1) Rotationsmatrizen durchführbar. Beweis: Wir haben nur die Unterdiagonalelemente zu eliminieren, also zu Beginn das Element a 21 dazu benötigen wir eine Rotationsmatrix U T (1; 2; ' 1 ) = U1 T aus dem vorherigen Vortrag ist uns bekannt, dass dabei die Struktur der Matrix A für die (n-1) -reihige Untermatrix erhalten bleibt. Dies ist dann auch der Ablauf für die folgenden Schritte. Bis die Matrix A durch Linksmultiplikation mit der Folge von (n-1) Rotationsmatrizen mit den Indexpaaren (1,2), (2,3),..., (n-1,n) zu einer rechten oberen Dreiecksmatrix umgewandelt wurde und eine Zerlegung der Form A = QR mit Q := U 1 U 2 :::U n 1 entstanden ist. Wie rekapitulieren: es waren (n-1) Rotationsmatrizen nötig um diese Form zu erzeugen. Im Fall einer tridiagonalen Matrix beinhalten die beiden oberen Nebendiagonalelemente nach der Rotation ein von null verschiedenes Element, denn durch U T (i; i + 1; ' i ) wird an der Stelle (i,i+2) mit i=1,2,...,(n-2) ein Wert erzeugt der nicht null sein muss, es bleibt natürlich bei den (n-1) Rotationen da uns in dem Fall ja erstmal nur die Dreiecksform interessiert. => Aus dem Satz schließen wir also, dass das Verfahren, bei einer Hessenbergmatrix angewendet deutlich weniger aufwendig ist, als bei einer vollbesetzten Matrix. Die QR-Transformation als wichtiger nächster Schritt in die Richtung unserer gesuchten Eigenwerte. Wir haben jetzt also eine Zerlegung der quadratischen Matrix A in A = Q R hieraus de nieren wir uns folgende Zuordnung: A 0 = R Q QR - Transformation anschließend zeigen wir einige Eigenschaften, die wir später sehr benötigen. 4

5 Satz 3 Die Matrix A der QR - Transformation ist orthogonal-ähnlich zur Matrix A. Beweis: (auch dieser Beweis wird hier nur nebenbei angeführt da er auch schon in der Vorlesung behandelt worden ist.) Q ist orthogonal und somit regulär, also existiert auch die Inverse Q 1 = Q T A = QR => Q 1 A = Q 1 QR => R = Q 1 A und A 0 = RQ => A 0 = Q 1 AQ Satz 4 Die Hessenbergform einer Matrix H der Ordnung n bleibt bei einer QR - Transformation erhalten. Beweis: aus einem der vorherigen Beweise ist die QR - Zerlegung einer Hessenbergmatrix H immer gegeben durch (n-1) Rotationsmatrizen => Q = U(1; 2; ' 1 )U(2; 3; ' 2 ):::U(n 1; n; ' n 1 ) Die Transformierte H ergibt sich durch: H 0 = RQ H 0 = R U 1 U 2 :::U n 1 0 R 1 * 0 U X X X X X X 0 0 X X X X B 0 X X X 0 0 X XA BX X A = BX X X X 0 0 X XA X X so wird bei jedem Schritt ein neues Element erzeugt beim ersten Schritt auf dem Platz (2,1) und anschließend mit jedem weiteren U(k; k + 1; ' K ) an der Stelle (k+1,k): Mit H ist somit nach den (n-1) Multiplikationen wieder eine Hessenbergmatrix entstanden. Der Rechenaufwand einer QR - Transformation für H der Ordnung n entsteht zu einem aus der Bildung von R und demjenigem von H für den allgemeinen j-ten Schritt bedeutet dies einen Aufwand (i) 4+4(n-j) Multiplikationen und eine Wurzel (ii) 4j+2 Multiplikationen (falls man berücksichtigt, dass das 5

6 Diagonalelement und die neu entstehenden Nebendiagonalelemente nur je eine Operation benötigen) nach Summation über j von 1 bis (n-1) ergibt sich daraus Z QRHesse = (4n + 6)(n 1) = 4n 2 + 2n 6 Multiplikationen und (n 1) Quadratwurzeln Satz 5 Die QR-Transformation einer symmetrischen, tridiagonalen Matrix ist wieder symmetrisch und tridiagonal. Beweis: Nach Satz 3 ist A orthogonal-ähnlich zu A, deshalb bleibt die Symmetrie erhalten, denn A 0T = (Q 1 AQ) T = Q T A T Q 1T = Q 1 AQ = A 0 daher wissen wir, dass die Symetrie erhalten bleibt und da die tridiagonale Matrix eine besondere Form der Hessenbergmatrix ist und wir im letzten Satz deren Erhaltung bewiesen haben, wissen wir auch, dass deren Gestalt als tridiagonale erhalten bleibt. Damit haben wir jetzt die nötigen Grundlagen de niert und können uns jetzt mit der gezielten Aufgabe beschäftigen, nämlich der Suche nach den Eigenwerten, dazu nutzen wir den nachfolgenden Satz von Schur. Bei dem Satz gehen wir von reellen Matrizen aus, da wir nur deren Eigenwerte ermitteln wollen. Satz von Schur Zu jeder reellen Matrix A der Ordnung n existiert eine orthogonale Matrix U der Ordnung n, so dass die zu A ähnliche Matrix R := U 1 AU die Quasidreiecksgestalt hat 0 1 R 11 R 12 R 13 R 1m 0 R 22 R 23 R 2m R := U 1 AU = 0 0 R 33 R 3m B A R mm Die Matrizen R ii, (i= 1,2,...,m) besitzen entweder die Ordnung eins oder die Ordnung zwei und haben im letzten Fall ein paar konjugiert komplexen Eigenwerten. 6

7 Beweis: Der Nachweis der Existenz einer orthogonalen Matrix U erfolgt in drei Teilen. (i) 9 2 R mit Eigenwert der Matrix A und x ein zugehöriger, normierter Eigenvektor mit kxk 2 = 1 so dass gilt: A x = x Zu x gibt es im R n weitere (n-1) normierte, paarweise und zu x orthogonale Vektoren. Diese (n-1) Vektoren sollen nun die Spalten einer Matrix Ũ 1 bilden. ~U 1 2 R n(n 1) eine Matrix mit (n-1) orthonormierten Vektoren. Jetzt fügen wir noch unseren Eigenvektor x als erste Spalte "davor" und erscha en damit eine orthogonale Matrix U 1 mit U 1 = (x; ~ U 1 ): Dann gilt in folge dessen AU 1 = (x; A ~ U 1 ) und daraus folgt dann x U1 1 AU 1 = U1 T T AU 1 = ~U 1 T (x; A U ~ 1 ) = x T A U ~ 1 0 U ~ T 1 A U ~ =: A 1 1 Wir wissen jetzt auch das A 1 zu A orthogonal ähnlich ist und das in A 1 in der linken oberen Ecke der Eigenwert zu nden ist. Der Nullvektor in der restlichen ersten Spalte entsteht aus der Orthogonaltität von x zu den Spalten von ~ U 1 ; also ~ U T 1 x = ~0: ~U T 1 A ~ U 1 beschreibt eine reelle Matrix der Ordnung (n-1), da [(n 1) n] [n n] [n (n 1)] => [(n 1) (n 1)]: (ii) 9 = + i mit 6= 0 mit komplexer Eigenwert von A und x ein zugehöriger Eigenvektor x = u + iv, dann ist notwendiger Weise = i der dazu konjugiert komplexe Eigenwert mit dem zugehörigen konjugiert komplexen Eigenvektor x = u iv. Deshalb ist A(u iv) = ( i)(u iv) wenn wir daraus den Real- und Imaginärteil ziehen bekommen wir dafür folgende Ausdrücke Au = u v; Av = u + v: Dieses tri t für x sowie auch x auf, da Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind => die beiden Vektoren u und v sind linear unabhängig und spannen damit einen Unterraum im R n auf. 7

8 Jetzt de nieren wir eine Matrix Y := (u; v) 2 R n2 und aus der oberen Zerlegung bekommen wir dann den folgen Ausdruck durch einsetzen: AY = A (u; v) = (Au; Av) = (u v; u + v) = (u; v) = Y =: Y In dem von u und v aufgespannten Unterraum gibt es zwei orthonormierte Vektoren x 1 und x 2, diese fassen wir zu einer weiteren Matrix X 2 R n2 zusammen und es entsteht die Beziehung Y = XC mit neuer Matrix C 2 R 22 regulär. Damit folgt aus der obrigen Gleichung AXC = XC oder AX = XC C 1 =: XS Die Matrix S = C C 1 2 R 22 ist ähnlich zu und besitzt folglich das Paar der konjugiert komplexen Eigenwerte = + i und = i. Zu x 1 und x 2 gibt es im R n (n-2) weitere orthogonale Vektoren, die zu x 1 und x 2 orthogonal sind. Mit diesen n orthogonalen Vektoren aus dem R n bilden wir die orthogonale Matrix U 2 := (x 1; x 2 ; U ~ 2 ) = (X; U ~ 2 ), wobei U ~ 2 2 R n(n 2) eine Matrix mit orthonormierten Spaltenvektoren ist. Eben jenes setzen wir jetzt wieder in die obrige Gleichung ein und erhalten jetzt den folgenden Ausdruck: X U2 1 AU 2 = U2 T T AU 2 = ~U 2 T A(X; U ~ S X 2 ) = T A U ~ 2 0 U ~ T 2 A U ~ =: A 2 2 Wir wissen jetzt auch, dass A 2 zu A orthogonal-ähnlich ist, und das in A 2 in der linken oberen Ecke die Matrix S zu nden ist. Darunter ist eine Nullmatrix zu nden, da U ~ 2 T AX = U ~ 2 T XS = 0 2 R (n 2)n aufgrund der Orthogonalität der Vektoren x 1 und x 2 zu den Spaltenvektoren von U ~ 2 : Unten rechts die Matrix U ~ 2 T A U ~ 2 ist eine reelle Matrix der Ordnung (n-2). (siehe (i)) (iii) Jetzt schauen wir uns die beiden Matrizen A 1 und A 2 mal genauer an und aufgrund deren Gestalt sieht man, dass die Eigenwerte der Matrix A aus dem Element und den Eigenwerten der Matrix ~ U T 1 A ~ U 1 bestehen, sowie im Fall von (ii) aus dem konjugiert komplexen Eigenwertpaar von S und den Eigenwerten von ~ U T 2 A ~ U 2. 8

9 Diese orthogonal-ähnliche Transformation kann nun fortlaufend analog für die folgenden "Restmatrizen" A ~ i := U ~ i T A U ~ i mit der Ordnung (n-i) mit entweder i = 1 oder i = 2 mit einem weiteren Eigenwertpaar durchgeführt werden. Jetzt suchen wir uns eine Matrix, die orthogonal ist und mit deren Hilfe wir den Vorgang konsequent weiterführen können, diese orthogonale Matrix nennen wir V ~ i 2 R (n i)(n i), eben diese scha t es A ~ i in die oben genannte Form zu transformieren. Das heißt wirbekommen eine Matrix Ii 0 V := 0 Vi ~ 2 R nn als eine orthogonale Matrix, welche durch die Verknüpfung V T A i V die gegebene Matrix A einen Schritt weiter zur Quasidreiecksgestalt bringt. Wenn wir diesen Vorgang konsequent weiterführen bekommen wir die Aussage des Satzes geliefert und bekommen U als Produkt der orthogonalen Matrizen. Als wichtig anzumerken wäre zu diesem Satz, dass er unabhängig von der Vielfachheit der Eigenwerte von A gilt. Diese Eigenwerte bekommen wir leicht aus den Untermatrizen R ii der Quasidreiecksmatrix R, je nachdem wie sie dort vorhanden sind, entweder als konjugiert komplex oder als reelle Eigenwerte. Da wir aber beim Beweis schon Voraussetzten, dass ein solcher Eigenwert existiert (wollen wir ja erst bestimmen) bzw. einen zugehörigen Eigenvektor hat und wir auch von ihm Gebrauch machen, ist der Beweis leider nicht konstruktiv und enthält somit eine reine Existenzaussage. Damit sind alle Voraussetztungen für die praktische Durchführung erläutert, sodass wir jetzt die QR - Transformation sukzessive anwenden können mit Hilfe von orthogonal-ähnlichen Matrizen indem wir den Satz von Schur möglichst versuchen zu Realisieren. Da wir, wissen dass die Transformation einer Hessenbergmatrix wieder eine Hessenbergmatrix ergibt nutzten wir diesen Vorteil und verwenden eben diese um den Rechenaufwand enorm zu reduzieren. H k = Q k R k ; H k+1 = R k Q k ; (k = 1; 2; :::) mit H 1 = H 9

10 Literatur -H.R. Schwarz, Numerische Mathematik (1997 Stuttgart,Teubner): Abschnitt Andreas Meister, Numerik linearer Gleichungssysteme (1999, Vieweg): Abschnitt

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Die Top 10 der Algorithmen Der QR-Algorithmus

Die Top 10 der Algorithmen Der QR-Algorithmus Die Top 10 der Algorithmen Der QR-Algorithmus Hans Hansen TU Chemnitz WS 04/05 17. Januar 2005 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Geschichte 3 2 Die Grundidee 3 3 Ähnlichkeitstransformationen

Mehr

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung. 20.0.2011 Inhaltsverzeichnis 1 2 3 4 1 2 3 4 der Matrix A R mxn, m n A = Q R Matrix Q: Q R nxn orthogonale Matrix (Spalten paarweise orthogonal) Q Q T = E Matrix R: R R mxn obere Dreiecksmatrix r 11 r

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math. Das QZ-Verfahren Bachelor-Arbeit im 1-Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt von Janina Gnutzmann Erstgutachter:

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya Inverse Matrix -E Ma Lubov Vassilevskaya Inverse Matrix Eine n-reihige, quadratische Matrix heißt regulär, wenn ihre Determinante einen von Null verschiedenen Wert besitzt. Anderenfalls heißt sie singulär.

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

4 Vorlesung: 21.11. 2005 Matrix und Determinante

4 Vorlesung: 21.11. 2005 Matrix und Determinante 4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

A Matrix-Algebra. A.1 Definition und elementare Operationen

A Matrix-Algebra. A.1 Definition und elementare Operationen A Matrix-Algebra In diesem Anhang geben wir eine kompakte Einführung in die Matrizenrechnung bzw Matrix-Algebra Eine leicht lesbare Einführung mit sehr vielen Beispielen bietet die Einführung in die Moderne

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Zahlen und Funktionen

Zahlen und Funktionen Kapitel Zahlen und Funktionen. Mengen und etwas Logik Aufgabe. : Kreuzen Sie an, ob die Aussagen wahr oder falsch sind:. Alle ganzen Zahlen sind auch rationale Zahlen.. R beschreibt die Menge aller natürlichen

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Kap 5: Rang, Koordinatentransformationen

Kap 5: Rang, Koordinatentransformationen Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Definition, Rechenoperationen, Lineares Gleichungssystem

Definition, Rechenoperationen, Lineares Gleichungssystem Bau und Gestaltung, Mathematik, T. Borer Aufgaben / Aufgaben Matrizen Definition, Rechenoperationen, Lineares Gleichungssystem Lernziele - die Bezeichnung der Matrixelemente kennen und verstehen. - den

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 2013 Prof Dr Erich Walter Farkas Kapitel 7: Lineare Algebra 73 Ergänzungen Prof Dr Erich Walter Farkas Mathematik I+II, 73 Ergänzungen 1 / 17 1 Reguläre Matrizen Prof Dr

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014 Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................

Mehr

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

Determinanten. a e b f a c b d. b) x = , y = c) zu einem Spaltenvektor das Vielfache des anderen Spaltenvektors addiert wird,

Determinanten. a e b f a c b d. b) x = , y = c) zu einem Spaltenvektor das Vielfache des anderen Spaltenvektors addiert wird, Determinanten Wir entwickeln eine Lösungsformel für Gleichungssysteme mit zwei Variablen. ax + cy = e b bx + y = f a } abx bcy = be + abx + ay = af ya bc = af be Man schreibt y = af be a bc = a e b f analog

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

7 Die Determinante einer Matrix

7 Die Determinante einer Matrix 7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =

Mehr

Lineare Algebra Zusammenfassung

Lineare Algebra Zusammenfassung Lineare Algebra Zusammenfassung Andreas Biri, D-ITET 2013 31.07.13 Lineares Gleichungssystem Gauss- Zerlegung Lösungsmenge: Menge aller Lösungen eines linearen Gleichungssystems (GS) Äquivalentes GS: 1)

Mehr

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung 4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind

Mehr

2. Aufgabe Vereinfachen Sie die folgenden Ausdrücke so, dass möglichst wenige Multiplikationen ausgeführt werden müssen!

2. Aufgabe Vereinfachen Sie die folgenden Ausdrücke so, dass möglichst wenige Multiplikationen ausgeführt werden müssen! Studiengang: PT/LOT/PVHT Semester: WS 9/ lgebra Serie: 2 Thema: Matrizen, Determinanten. ufgabe Gegeben sind die Matrizen = µ 2 3 2 µ 3 2 4, B = 2 Berechnen Sie: a) 2 + 3B b) B 2 c) B T d) B T e) T B f)

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Lösungen Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Kapitel I: Mengen Aufgabe

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4

Mehr

Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen

Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen 15.04.2011 Inhaltsverzeichnis Grundlagen 1 Grundlagen Matrizen Vektoren 2 Skalarprodukt und Saxpy Matrix-Vektor-Multiplikation Gaxpy Matrix-Matrix-Multiplikation

Mehr

Zusammenfassung Mathe III. Themenschwerpunkt 3: Analytische Geometrie / lineare Algebra (ean) 1. Rechenregeln mit Vektoren

Zusammenfassung Mathe III. Themenschwerpunkt 3: Analytische Geometrie / lineare Algebra (ean) 1. Rechenregeln mit Vektoren Zusammenfassung Mathe III Themenschwerpunkt 3: Analytische Geometrie / lineare Algebra (ean) 1. Rechenregeln mit Vektoren Definition: (1) anschaulich: Ein Vektor ist eine direkt gerichtete Verbindung zweier

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

Quadratische Formen und Definitheit

Quadratische Formen und Definitheit Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von

Mehr

Lösungsskizzen zur Klausur

Lösungsskizzen zur Klausur sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie

Mehr

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren Beispiel 3.2. Gesucht u(x), das eine Differentialgleichung vom Typ u (x) + λ(x)u(x) = f(x), x [0,], mit den Randbedingungen u(0) = u() = 0

Mehr

Copyright, Page 1 of 5 Die Determinante

Copyright, Page 1 of 5 Die Determinante wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist

Mehr

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit

Mehr

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte Numerik I Version: 240608 40 6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte Die zwei wichtigsten Aufgaben der linearen Algebra: Lösung linearer Gleichungssysteme: Ax = b, wobei die n

Mehr

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015 Matrizenrechnung Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Matrizenrechnung Übersicht Grundsätzliches 1 Grundsätzliches Matrixbegriff Rechenregeln Spezielle Matrizen 2 Matrizenrechnung Determinanten

Mehr

Analytische Geometrie, Vektorund Matrixrechnung

Analytische Geometrie, Vektorund Matrixrechnung Kapitel 1 Analytische Geometrie, Vektorund Matrixrechnung 11 Koordinatensysteme Eine Gerade, eine Ebene oder den Anschauungsraum beschreibt man durch Koordinatensysteme 111 Was sind Koordinatensysteme?

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

Rang und Inverses einer Matrix

Rang und Inverses einer Matrix Rang und Inverses einer Matrix wgnedin@math.uni-koeln.de 29. April 2014 In dieser Notiz werden Methoden und Beispiele zur Berechnung des Rangs einer Matrix sowie der Inversen einer invertierbaren Matrix

Mehr

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

Diagonalisieren. Nikolai Nowaczyk  Lars Wallenborn Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit

Mehr

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2. Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar

Mehr

7 Lineare Gleichungssysteme

7 Lineare Gleichungssysteme 118 7 Lineare Gleichungssysteme Lineare Gleichungssysteme treten in vielen mathematischen, aber auch naturwissenschaftlichen Problemen auf; zum Beispiel beim Lösen von Differentialgleichungen, bei Optimierungsaufgaben,

Mehr

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11 Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Das CG-Verfahren. Sven Wetterauer

Das CG-Verfahren. Sven Wetterauer Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

1 Lineare Gleichungssysteme

1 Lineare Gleichungssysteme MLAN1 1 LINEARE GLEICHUNGSSYSTEME 1 Literatur: K Nipp/D Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4 Auflage, 1998, oder neuer 1 Lineare Gleichungssysteme Zu den grundlegenden

Mehr