Spezielle Matrixformen

Ähnliche Dokumente
Einführung in die Vektor- und Matrizenrechnung. Matrizen

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer.

A Matrix-Algebra. A.1 Definition und elementare Operationen

Kapitel 15. Lösung linearer Gleichungssysteme

Lineare Algebra - alles was man wissen muß

Elemente der Analysis II

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

2 Lineare Gleichungssysteme

7 Die Determinante einer Matrix

Lösungen zum 3. Aufgabenblatt

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Vorlesung bzw. 23. Januar Determinanten 1. Cramersche Regel

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Leitfaden Lineare Algebra: Determinanten

Lineare Gleichungssysteme

Statistische Methoden

Numerisches Programmieren

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte

Lineare Gleichungssysteme I (Matrixgleichungen)

2 Die Darstellung linearer Abbildungen durch Matrizen

Eigenwerte und Eigenvektoren von Matrizen

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33

Beispiel zur Lösung eines Gleichungssystems : 6 y + z = x + 3 y 3 z = x 3 y =

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Inhaltsverzeichnis 1 Lineare Gleichungssysteme I

Einführung in MATLAB

Dünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im Vergleich zu voll besetzten Matrizen. Besetzungsmuster mit spy.

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

1 Lineare Gleichungssysteme

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Numerische Behandlung des Eigenwertproblems

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

Lineare Gleichungssysteme

Lineare Gleichungssysteme

6 Symmetrische Matrizen und quadratische Formen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Gleichungssysteme und Gauß'scher Algorithmus

OPERATIONS-RESEARCH (OR)

Installation. Arbeiten mit der MATLAB-Entwicklungsumgebung. MATLAB als Taschenrechner mit Matrix- und Vektorrechnung.

TECHNISCHE UNIVERSITÄT MÜNCHEN. Abzählbarkeit, Injektivität, Sürjektivität und Bijektivität

Übungsaufgaben LAAG I. für Lehramtsstudenten GS, MS, BS

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

Numerisches Programmieren

Modellierung, Simulation, Optimierung Diskretisierung 1

Bestimmung einer ersten

Optimalitätskriterien

Ausgleichungsrechnung I

Mathematik III für Ingenieure

Skript zur Vorlesung Höhere Mathematik für Bachelorstudiengänge. Prof. Dr. R. Herzog. gehalten im SS2013 Technische Universität Chemnitz

7 Lineare Abbildungen und Lineare Gleichungssysteme

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Mathematischer Vorkurs für Physiker WS 2009/10

Kapitel IR:III (Fortsetzung)

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: Weitere Informationen oder Bestellungen unter

Kapitel 5 Netzwerkanalyse

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

3. Grundlagen der Linearen Programmierung

Höhere Mathematik für Ingenieure IV. Volker John

Einführung in die Tensorrechnung

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

ax 2 + bx + c = 0, (4.1)

KAPITEL 0. Einführung

Kapitel 3 Mathematik. Kapitel 3.3. Algebra Gleichungen

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Mathematische Grundlagen der Kryptographie. 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe. Stefan Brandstädter Jennifer Karstens

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Entwurf robuster Regelungen

Berechnung von Eigenwerten und Eigenvektoren

Lineare Algebra und Computer Grafik

Lineare Algebra für Informatiker TUM Sommersemester 2011 Dozent: Christian Pötzsche

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen

Einführung in die Kodierungstheorie

- Grundlagen der Elektrotechnik I Gleichströme und Gleichspannungen in linearen Netzwerken 1

II. Klein Gordon-Gleichung

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

Fotografie * Informatik * Mathematik * Computer-Algebra * Handreichung für Lehrer

Mit Fallstudien und numerischen Lösungen

2.1 Codes: einige Grundbegriffe

3.1. Die komplexen Zahlen

Definition 27 Affiner Raum über Vektorraum V

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

11 Normalformen von Matrizen

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

Lehrstuhl für Mathematik II Algebraische Kombinatorik, Diskrete Strukturen Prof. Dr. Adalbert Kerber. Bachelor-Thesis

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

Materialverflechtung

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

lineare-algeba.wxmx 1 / 7 Mathematik in wxmaxima Haftendorn Dez 2010

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/

Didaktik der Zahlbereiche 4. Die Menge der ganzen Zahlen. Mathematikunterricht in der Jahrgangsstufe 7. Zahlbereichserweiterungen in der Hauptschule

Lineare Algebra und analytische Geometrie II (Unterrichtsfach)

Transkript:

Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß in Matrixschreibweise α 1 1 α 2 1 α m 1 A T = α 1 2 α 2 2 α m 2 α 1 n α 2 n α m n = (βi j)j=1m i=1n Bemerkung: Nur die Diagonalelemente (α i i) i=1 min(m,n) bleiben bei der Transposition unverändert, die anderen Elemente tauschen den Platz mit ihrem Gegenüber auf der anderen Seite der Diagonalen Lemma B58 (Transpositionsregeln) Man kann sich leicht davon überzeugen, daß die folgenden Regeln für das Transponieren gelten: (A T ) T = A (A + B) T = A T + B T (λa) T = λa T (A B) T = B T A T Bemerkung: Die Transposition ist also eine lineare Abbildung von R m n nach R n m und als solche sogar ihre eigene Inverse Die letzte Gleichung bedeutet, daß die Transponierte eines Produktes gleich dem Produkt der transponierten Faktoren in umgekehrter Reihenfolge ist Hierbei müssen wir natürlich wieder davon ausgehen, daß die Formate der Faktoren bezüglich der Produktbildung verträglich sind, was dann entsprechend für die Transponierten folgt Spezielle Matrixformen Je nach ihrem Format, der Verteilung nicht verschwindender Elemente und gewissen algebraischen Eigenschaften unterscheidet man die folgenden häufig auftretenden Matrix Typen Zeilenvektor A R 1 n (α 11, α 12,, α 1n) In diesem Falle nennt man A einen Zeilenvektor Spaltenvektor A R m 1 α 11 α m1 In diesem Falle nennt man A einen Spaltenvektor Er kann von links mit einer m-spaltigen Matrix multipliziert werden, in diesem Fall stimmt das Matrix Vektor Produkt und das übliche Matrix Matrix Produkt überein Äusseres oder dyadisches Produkt Das Produkt eines Zeilenvektors a T = [(α i) i=1n] T R 1 n mit einem Spaltenvektor b = (β i) i=1m R m 1 der gleichen Länge m = n ergibt a T b = (a b) = b T a = n α iβ i R 1 1 Diese 1 1 Matrix kann man also als Skalar mit dem inneren Produkt zwischen a und b identifizieren Wechselt man jedoch die Reihenfolge der Faktoren, so ergibt sich auch fuer n m die wohldefinierte Matrix i=1 ba T = (b ia j) i=1m j=1n Rm n Diese nennt man auch das äussere oder dyadische Produkt von a und b

Verbilligte Produkte Normalerweise kostet für A R m n die Berechnung des Produktes Av mit einem Vektor v R n genau m n skalare Multiplikationen Ist jedoch ba T ein äusseres Produkt so berechnet man viel billiger Av = (ba T )v = b(a T v) Beachte, dass b(a T v) durch Bildung des Inneren Produktes a T v = a v und seine anschliessende Multiplikation mit b nur n + m skalare Multiplikationen verlangt Demgegenüber kostet alleine die explizite Berechnung des äusseren Produktes ba T genau m n Multiplikationen Entsprechend berechnet man das Produkt mit einer Matrix V R n p als (ba T )V = b(a T V ) = b(v T a) T Die Produktbildung b(v T a) T kostet nur (m + n) p skalare Multiplikationen während die Berechnung in der Form (ba T )V mehr als m n p solche Operationen verlangt Allgemeiner bezeichnet man die Fragestellung, in welcher Reihenfolge ein Produkt mehrerer Matrizen am billigsten berechnet werden kann, als Matrixketten-Problem Es kann sehr effizient mittels der sogenannten Dynamischen Programmierung Quadratische Matrix A R n n A T R n n Eine Matrix, deren Zeilenzahl gleich ihrer Spaltenzahl ist, heißt quadratisch Alle linearen Abbildungen eines Raumes in sich selbst werden durch quadratische Matrizen beschrieben Symmetrische Matrix A T = A R n n Quadratische Matrizen, die bezüglich der Transposition invariant sind, heißen symmetrisch Diese bilden einen Unterraum von R n n Dieser Unterraum hat die Dimension n (n + 1)/2, da man lediglich die n Elemente in der Diagonale und entweder die n (n 1)/2 Elemente darüber oder die gleiche Zahl darunter frei wählen kann Schief symmetrische Matrix A T = A R n n Quadratische Matrizen mit dieser Eigenschaft heißen schief symmetrisch Wie wir später sehen werden, sind alle ihre Eigenwerte rein imaginär Für jede quadratische Matrix gilt 1 2 (A + AT ) + }{{} 1 2 (A AT ) }{{} symmetrisch schiefsymmetrisch Diese additive Zerlegung ist allerdings nicht sehr nützlich in Bezug auf die Eigenwerte, da diese in stark nichtlinearer Weise von der Matrix abhängen Dreiecksmatrix Falls für (α i j) R n n gilt, so daß i > j α i j = 0 α 1 1 α 1 n 0 α 2 2 α 2 n, 0 α n n dann nennt man A eine obere Dreiecksmatrix Analog definiert man auch die untere Dreiecksmatrix, deren oberhalb der Hauptdiagonale stehenden Elemente Null sind

Diagonale Matrizen A R n n heißt diagonal, wenn i j α i j = 0 gilt, also α 1 1 0 0 0 α 2 2 0 0 0 α n n Man schreibt dann kurz diag(α i i) i=1n Insbesondere gilt I = diag(1) i=1n Summen und Produkte von diagonalen Matrizen sind wiederum diagonal: diag(α i) i=1n B = diag(β i) i=1n = A + B = diag(α i + β i) i=1n A B = diag(α i β i) i=1n Orthogonale Matrizen A R n n heißt orthogonal, falls A T I = A A T wobei sich zeigen läßt, daß die zweite Identität aus der ersten folgt Bezeichnet man mit a j = (α i j) i=1n den j-ten Spaltenvektor von A, so ist die Bedingung A T I äquivalent zu { 0 falls i j a i a j = 1 falls i = j Das heißt: Die Matrix A ist genau dann orthogonal, wenn ihre Spaltenvektoren eine orthonormale Basis von R n bilden Da mit A auch A T orthogonal ist, gilt dasselbe für die Zeilen von A, die ja die Spalten von A T sind Produkt orthogonaler Matrizen Für zwei orthogonale Matrizen A und B ist jeweils auch deren Produkt orthogonal, da (AB) T (AB) = (B T A T )(AB) = B T (A T A)B = B T B = I Die Summe von orthogonalen Matrizen hat im allgemeinen nicht diese Eigenschaft So ist zum Beispiel mit A auch A orthogonal, aber deren Summe, die Nullmatrix A 0, sicherlich nicht Beispiel B59 (Drehungen in der Ebene) ( ) cos(ϕ) sin(ϕ) sin(ϕ) cos(ϕ) ( ) A T cos(ϕ) sin(ϕ) = sin(ϕ) cos(ϕ) ( ) A T cos(ϕ) 2 + sin(ϕ) 2 cos(ϕ) sin(ϕ) (1 1) sin(ϕ) cos(ϕ) (1 1) cos(ϕ) 2 + sin(ϕ) 2 = I

B - 7 Lineare Systeme Für eine lineare Abbildung F : V = Span{v j} j=1n W = Span{w i} i=1m und eine vorgegebene Rechte Seite w = m i=1 biwi mit bi R findet man ein v = j=1n xjvj mit F (v) = w durch Lösen des Gleichungssystems α 1 1x 1 + α 1 2x 2 + + α 1 jx j + α 1 nx n = b 1 α 2 1x 1 + α 2 2x 2 + + α 2 jx j + α 2 nx n = b 2 α i 1x 1 + α i 2x 2 + + α i j + α i nx n = b i α m 1x 1 + α m 2x 2 + + α m j + α m nx n = b m Matrix Vektor Schreibweise Äquivalenterweise ergibt sich in Matrix Vektor Schreibweise α 1 1 α 1 j α 1 n Ax = α 2 1 α 2 j α 2 n x = b α m 1 α m j α m n wobei x = (x 1,, x j,, x n) T und b = (b 1,, b i,, b m) T sind (unter Verletzung der Konvention, daß alle Skalare mit griechischen Buchstaben benannt sein sollten) Man bezeichnet das lineare System von m Gleichungen in n Unbekannten als unterbestimmt quadratisch überbestimmt wenn m < n wenn m = n wenn m > n Definition B60 (Regularität) Eine Abbildung F : R n R n und entsprechende Matrizen A heißen regulär, falls Ax = F (x) = 0 gdw x = 0, andernfalls heißen sie singulär Lemma B61 Falls A regulär ist, dann hat Ax = b genau eine eindeutige Lösung für jedes b Ein Kriterium, ob eine Matrix regulär oder singulär ist, liefert die im Abschnitt B-9 eingeführte Determinante det(a) Wünschenswerte Lösungsalgorithmen prüfen die Regularität und liefern entweder die eindeutige Lösung oder Singularitätsbeschreibungen Lösung Linearer Gleichungssysteme in Spezialfällen Ist A eine Orthogonal-, Diagonal- oder Dreiecksmatrix (das sind diejenigen, deren Struktur sich auf das Produkt überträgt), so lassen sich die entsprechenden linearen Systeme Ax = b relativ leicht lösen Lemma B62 (Lösung orthogonaler Systeme) Falls A orthogonal ist, gilt: Ax = b A T Ax = x = A T b In diesem Falle kann das Gleichungssystem also einfach durch die Multiplikation der rechten Seite b mit der Transponierten A T gelöst werden

Lemma B63 (Lösung diagonaler Systeme) Falls diag(α i) i=1n eine Diagonalmatrix ist, so reduziert sich das lineare System auf die Gleichungen α ix i = b i Diese werden für beliebige b i durch x i = b i/α i genau dann erfüllt, wenn keines der Diagonalelemente α i gleich Null ist Falls diese Regularitätsbedingung verletzt ist, muß b die Konsistenzbedingung α i = 0 b i = 0 erfüllen Die entsprechenden Lösungskomponenten x i sind dann beliebig, so daß das Gleichungssystem Ax = b mehrdeutig lösbar ist Lemma B64 (Lösung von Dreieckssystemen) Ist A eine untere Dreiecksmatrix, hat das entsprechende Gleichungssystem Ax = b die folgende gestaffelte Form: α 1 1x 1 = b 1 α 2 1x 1 + α 2 2x 2 = b 2 α i 1x 1 + α i 2x 2 + + α i ix i = b i α n 1x 1 + α n 2x 2 + + α n, n 1x n 1 + α n nx n = b n Vorwärtssubstitution Nun kann man zunächst aus der ersten Gleichung x 1 bestimmen, dann diesen Wert in die Zweite einsetzten, um x 2 zu erhalten, und so weiter Unter der Regularitätsbedingung aus Lemma B63, daß wiederum keines der diagonalen Elemente α i i verschwindet, hat man also x 1 = b 1/α 1 1 x 2 = (b 2 α 2 1x 1)/α 2 2 x 3 = (b 3 α 3 1x 1 α 3 2x 2)/α 3 3 x i = (b i α i 1x 1 α i i 1x i 1)/α i i x n = (b n α n 1x 1 α n jx j α n n 1x n 1)/α n n Man braucht n(n 1)/2 Multiplikationen und Additionen sowie n Divisionen Rückwärtssubstitution Bei einer oberen Dreiecksmatrix A ergibt sich entsprechend das Verfahren der Rückwärtssubstitution, wobei jetzt die x i für i = n, n 1,, 1 durch die Formel x i = 1 n b i α i jx j i = n, n 1,, 1 α i i j=i+1 bestimmt sind Regularitätsbedingung ist wiederum, daß keines der Diagonalelemente verschwindet und der Rechenaufwand ist auch hier von der Ordnung n 2 /2 arithmetische Operationen Zur Lösung allgemeiner linearer Systeme kann man die Matrix A so modifizieren, daß sie eine der oben genannten speziellen Formen annimmt oder das Produkt solcher spezieller Matrizen wird Das klassische Verfahren für eine solche Transformation ist die Elimination nach Carl Friedrich Gauß (1777 1855)