Mathematik II für Bauwesen. Ivan Izmestiev

Größe: px
Ab Seite anzeigen:

Download "Mathematik II für Bauwesen. Ivan Izmestiev"

Transkript

1 Mathematik II für Bauwesen Ivan Izmestiev TU Darmstadt, SS 01

2 Inhaltsverzeichnis 1 Lineare Algebra 1 1 Lineare Gleichungssysteme und Matrizen Matrizen Lineare Gleichungssysteme Elementare Zeilenumformungen Gauß-Algorithmus Die Matrizenmultiplikation Addition, Subtraktion und Multiplikation mit einer Zahl. 8. Die Matrizenmultiplikation Invertierbare Matrizen Die Transponierte einer Matrix Diagonal- und Dreiecksmatrizen Berechnung der inversen Matrix mit dem Gauß-Jordan- Verfahren Begründung des Gauß-Jordan-Verfahrens Vektorräume Linearkombinationen Der Rang einer Matrix Lineare Teilräume von R n Vektorraum: Definition Basis eines Vektorraums Dimension eines Vektorraums Basis und Dimension des Zeilenraums und des Kerns einer Matrix Der Basisauswahlsatz und der Basisergänzungssatz Zeilenrang = Spaltenrang Kriterien der Invertierbarkeit einer Matrix Lineare Algebra und Statik der Fachwerke Gleichgewichtsbelastungen Auflösen der Belastung durch Stabkräfte Statische Bestimmtheit, Dimension und Rang Beispiele von Ausnahmefachwerken Determinanten Die Determinante einer -Matrix Die Determinante einer 3 3-Matrix Die Determinante einer n n-matrix Rechenregeln für Determinanten Lineare Abbildungen und Eigenwerte i

3 6.1 Definition und Beispiele Lineare Abbildungen und Matrizen Längentreue Abbildungen und orthogonale Matrizen Beispiele von linearen Abbildungen und Abbildungsmatrizen Abbildungsmatrix bezüglich einer beliebigen Basis Basiswechsel Eigenwerte und Eigenvektoren einer linearen Transformation Diagonalisierbare Matrizen Symmetrische Matrizen und quadratische Formen Diagonalisierbarkeit symmetrischer Matrizen Quadratische Formen Die Hauptachsentransformation Quadriken Positiv definite Matrizen Funktionen in mehreren Variablen: Differentiation 79 1 Grundlagen Reellwertige und vektorwertige Funktionen mehrerer Veränderlicher Der Graph, Niveaumengen und partielle Funktionen Teilmengen von R n Grenzwerte und Stetigkeit Differentiation Partielle Ableitungen und der Gradient Differenzierbarkeit und lineare Approximation Die Richtungsableitung Die Kettenregel für reellwertige Funktionen Anwendungen der Differentiation Die Bedeutung des Gradienten Approximation höherer Ordnung: die Taylor-Formel Lokale Minima und Maxima Globale Minima und Maxima Extremwertaufgaben mit Nebenbedingungen Vektorwertige Funktionen Die Differentiation und die Jacobi-Matrix Die Kettenregel Skalaren- und Vektorfelder Divergenz, Rotation, Laplace-Operator Funktionen in mehreren Variablen: Integration Parameterintegrale Integration über ebene Bereiche Der Flächeninhalt Definition und Berechnung des Doppelintegrals Anwendungen des Doppelintegrals Die Transformationsformel für Gebietsintegrale Kurvenintegrale Definition ii

4 3. Die Integration eines Vektorfeldes längs einer Kurve Das Potential eines Gradientenfeldes Der Satz von Green und der ebene Satz von Gauß Integration über Flächen im Raum Reguläre Flächen Berechnung des Flächeninhaltes Das Oberflächenintegral Der Divergenzsatz von Gauss iii

5 iv

6 Kapitel 1 Lineare Algebra 1 Lineare Gleichungssysteme und Matrizen 1.1 Matrizen Eine Matrix vom Typ m n ist ein rechteckiges Zahlenschema mit m Zeilen und n Spalten: a 11 a 1 a 1n A = a 1 a a n a m1 a m a mn Man beachte: die Zahl a ij steht auf der Kreuzung der i-ten Zeile mit der j-ten Spalte. Abkürzende Schreibweise für eine m n Matrix mit den Einträgen a ij : A = (a ij ) m n Ein Vektor v = (v 1, v,..., v n ) kann als eine 1 n Matrix gesehen werden (Zeilenvektor) oder, in der Spaltenschreibweise für Vektoren als eine n 1 Matrix. v 1 v v =. v n 1. Lineare Gleichungssysteme Betrachten wir ein lineares Gleichungssystem (LGS) aus m Gleichungen für n Unbekannte: a 11 x 1 + a 1 x + + a 1n x n = b 1 a 1 x 1 + a x + + a n x n = b (1.1) a m1 x 1 + a m x + + a mn x n = b m 1

7 Die komplette Information über das Gleichungssystem ist in ihrer erweiterten Koeffizientenmatrix enthalten: a 11 a 1 a 1n b 1 a 1 a a n b a m1 a m a mn b m Daher können die Matrizen als bequeme Schreibweise bei der Lösung der LGS benutzt werden. Zuerst aber noch Einiges über die linearen Gleichungssysteme. Ein LGS heißt homogen, wenn alle Zahlen b i auf der rechten Seite gleich Null sind, und andernfalls inhomogen. 3x 1 + x = 0 3x 1 + x = 1 3x 1 + x = 0 3x 1 + x = 5 homogen inhomogen Ein homogenes LGS hat immer mindestens eine Lösung, nämlich die Nulllösung x 1 = x = = x n = 0. Es gibt inhomogene Systeme, die keine Lösungen besitzen, z. B. 3x 1 + x = 1 3x 1 + x = Ein LGS kann auch unendlich viele Lösungen besitzen, z. B. 3x 1 + x = 1 (1.) Eine allgemeine Lösung von (1.) kann wie folgt beschrieben werden. Die Variable x darf einen beliebigen Wert λ R annehmen, und x 1 kann daraus berechnet werden: x = λ, x 1 = 1 (1 λ) (1.3) 3 Dementsprechend heißt x unabhängige (oder freie) Variable, und x 1 heißt abhängige Variable. 1 Im Folgenden wollen wir einen Algorithmus beschreiben, der die Lösungen jedes LGS analog zu (1.3) darstellt. 1.3 Elementare Zeilenumformungen Betrachten wir die folgenden Umformungen eines LGS: 1) Vertauschung zweier Gleichungen. ) Multiplikation einer Gleichung mit einer Zahl α 0. 1 Welche Variable unabhängig ist, und welche nicht, hängt von unserem Lösungsweg ab. Im obigen Beispiel könnte man x 1 als unabhängige Variable wählen und x durch x 1 = λ ausdrücken.

8 3) Addition (bzw. Subtraktion) des Vielfachen einer Gleichung zu (bzw. von) einer anderen. Bei diesen Umformungen geht ein LGS in ein äquivalentes über, d. h. die Lösungsmenge ändert sich nicht. Beispiel 1.1. Auf das LGS 3x 1 + x = 1 3x 1 + x = 5 wird die dritte Elementarumformung angewendet: von der zweiten Zeile wird die erste subtrahiert: 3x 1 + x = 1 3x 1 + x = 1 3x 1 + x = 5 x = 4 In der Matrizensprache ausgedrückt, entsprechen die obigen Operationen den elementaren Zeilenumformungen der erweiterten Koeffizientenmatrix. Wir bezeichnen mit Z i die i-te Zeile der Matrix und benutzen die folgenden Abkürzungen für diese Operationen: 1) Vertauschung zweier Zeilen Z i Z j ) Multiplikation einer Zeile mit einer Zahl α 0 Z i αz i 3) Addition (bzw. Subtraktion) des Vielfachen einer Zeile zu (bzw. von) einer anderen Z i Z i + αz j 1.4 Gauß-Algorithmus (zu Z i wird αz j addiert) Mit dem Gauß-Algorithmus (auch als Gaußsches Eliminationsverfahren bekannt) wird ein LGS in eine einfache Form gebracht, aus welcher die Lösungen leicht ermittelt werden können. Gauß-Algorithmus für ein homogenes LGS Da alle b i = 0 sind, reicht es, die einfache Koeffizientenmatrix zu behandeln: a 11 a 1 a 1n A = a 1 a a n a m1 a m a mn Der Gauß-Algorithmus besteht aus zwei Teilen: a) die Vorwärtselimination; b) die Rückwärtssubstitution. 3

9 Die Vorwärtselimination Wenn a 11 0 ist, dann multiplizieren wir die erste Zeile: Z 1 1 a 11 Z 1, sodass die Matrix die folgende Form annimmt: (1.4) (Das -Zeichen steht für eine beliebige Zahl.) Wenn a 11 = 0 ist, dann suchen wir eine Zeile, wo die erste Zahl 0 ist und tauschen sie mit der ersten Zeile um: Z 1 Z i. Nach der Division der (neuen) ersten Zeile durch ihren ersten Eintrag nimmt die Matrix die Form (1.4) an. Nun eliminieren wir alle übrigen Koeffizienten in der ersten Spalte dadurch, dass wir von allen Zeilen ein Vielfaches der ersten Zeile subtrahieren (bzw. dazu addieren): Z i Z i + α i Z 1 mit geeigneten α i. Die Matrix sieht danach aus wie (1.5) Damit ist der erste Eliminationsschritt vollendet. Die erste Zeile können wir jetzt außer Acht lassen, sie wird nicht mehr angerührt. Beim zweiten Eliminationsschritt ist Folgendes möglich. Die Zahl an der Stelle (, ) (-te Zeile, -te Spalte) ist 0. Dann machen wir daraus 1: Z 1 a Z und eliminieren alle darunter stehenden Zahlen: Z i Z i + α i Z. Die Matrix wird zu (1.6) Die Zahl an der Stelle (, ) ist gleich Null, in der Spalte darunter gibt es eine Zahl 0. Wir tauschen die Zeilen: Z Z i, multiplizieren die zweite: Z 1 a Z, eliminieren: Z i Z i + α i Z, und die Matrix nimmt die Form (1.6) an. Die Zahl an der Stelle (, ) ist gleich Null, sowie alle Zahlen darunter. In diesem Fall verlassen wir die zweite Spalte und bearbeiten die dritte nach demselben Muster. Wenn es in der dritten Spalte eine Zahl 0 gibt, dann nimmt die Matrix nach der Elimination die folgende Form an

10 Nach höchstens m 1 Eliminationsschritten gelangen wir zu einer Matrix in der Zeilenstufenform, wie zum Beispiel (1.7) Bemerkung 1.. Ein Eliminationsschritt kann in drei Teile unterteilt werden: Eliminator suchen (eine Zahl 0 in der aktuellen Spalte) und nach oben bringen; normieren (die Zeile multiplizieren, so dass Eliminator = 1 wird); eliminieren. Bei einer Variante des Algorithmus wird der zweite Schritt ausgelassen. Die Matrix wird dann in die folgende Form gebracht: wobei für eine Zahl 0 steht. Diese Form darf ebenfalls Zeilenstufenform genannt werden. Die Rückwärtssubstitution Das wird auf einem Beispiel erläutert. Es sei durch die Vorwärtselimination die folgende Matrix entstanden: Das entsprechende Gleichungssystem ist x 1 x + 3x 3 + 4x 4 + x 5 = 0 x 3 + x 4 4x 5 = 0 x 4 + 3x 5 = 0 Die Variablen x 1, x 3, x 4 erklären wir zu den abhängigen. Den unabhängigen Variablen x und x 5 schreiben wir beliebige Werte zu: x = λ 1, x 5 = λ und bringen sie auf die rechten Seiten der Gleichungen: x 1 + 3x 3 + 4x 4 = λ 1 λ x 3 + x 4 = 4λ x 4 = 3λ Jetzt erfolgt die Rückwärtssubstitution. Die letzte Gleichung drückt x 4 durch λ aus, das Einsetzen in die zweite Gleichung drückt x 3 durch λ, und schließlich das Einsetzen in die erste Gleichung drückt x 1 durch λ 1 und λ aus: x 4 = 3λ, x 3 = 0.5λ, x 1 = λ λ 5

11 Die allgemeine Lösung kann wie folgt aufgeschrieben werden: x 1 λ λ x x 3 x 4 = λ 1 0.5λ 3λ x 5 λ Das Prinzip der Rückwärtssubstitution: Die Spalten mit -Zeichen entsprechen den abhängigen Variablen. Die unabhängigen Variablen (also die aus den Spalten ohne -Zeichen) werden auf die rechten Seiten der Gleichungen gebracht, und werden gleich λ 1, λ,... gesetzt. Das entstandene Gleichungssystem wird durch Einsetzen von unten nach oben gelöst. Beispiel 1.3. Lösen wir das LGS x 1 4x + x 3 = 0 x 1 3x x 3 5x 4 = 0 3x 1 7x + x 3 5x 4 = 0 x x 3 x 4 = 0 Mit der Elimination bringen wir die Koeffizientenmatrix in die Zeilenstufenform: Die Unbekannten x 3 und x 4 sind frei: x 3 = λ 1, x 4 = λ. Wir bringen sie auf die rechte Seite und erhalten das Gleichungssystem x 1 4x = λ 1 x = λ 1 + λ Daraus errechnen wir x 1 und schreiben die allgemeine Lösung auf: x 1 x x 3 = x 4 λ 1 + 4λ λ 1 + λ λ 1 λ 6

12 Gauß-Algorithmus für ein inhomogenes LGS In diesem Fall besteht der Gauß-Algorithmus aus drei Teilen: a) die Vorwärtselimination; b) die Lösbarkeitsentscheidung; c) die Rückwärtssubstitution. Die Vorwärtselimination Die erweiterte Koeffizientenmatrix wird in Zeilenstufenform gebracht, bis auf die letzte Spalte: c c c c c c 6 Die Lösbarkeitsentscheidung Ist eine der Zahlen c 5, c 6 im obigen Beispiel von Null verschieden, so entspricht diese Zeile einer Gleichung 0 = c i, die keine Lösung besitzt. Gilt c 5 = c 6 = 0, so berechnen wir die Lösungen mittels Rückwärtssubstitution Das funktioniert genau so wie im homogenen Fall: die freien Variablen werden auf die rechte Seite gebracht, zu den c i ; die Ausdrücke für die abhängigen Variablen werden von unten nach oben durch Einsetzen ermittelt. Beispiel 1.4. Bei welchem Wert von c schneiden sich die drei Ebenen in R 3 : x y z = 3, x 5y + z =, 4x 9y = c? Wie sieht bei diesem c die Schnittmenge aus? Lösung. Der Schnitt dieser Ebenen ist die Lösungsmenge des LGS x y z = 3 x 5y + z = 4x 9y Mit der Elimination bringen wir die erweiterte Matrix des Systems in Zeilenstufenform: c c c 8 Bei c 8 besitzt das System keine Lösungen, d. h. die Ebenen schneiden sich nicht. Bei c = 8 setzen wir z = λ (die freie Variable) und erhalten das System = c x y = λ + 3 y = 4λ 4 7

13 Die Substitution ergibt y = 4λ + 4, x = 9λ + 11 Die allgemeine Lösung: x 9λ y = 4λ + 4 = 4 + λ 4 z λ 0 1 Das heißt, bei c = 8 ist die Schnittmenge der Ebenen die Gerade mit Aufpunkt (11, 4, 0) und Richtungsvektor (9, 4, 1). Die Matrizenmultiplikation.1 Addition, Subtraktion und Multiplikation mit einer Zahl Seien A = (a ij ) m n und B = (b ij ) m n zwei m n Matrizen. Ihre Summe A+B ist definiert als a 11 a 1 a 1n b 11 b 1 b 1n a 1 a a n + b 1 b b n = a m1 a m a mn b m1 b m b mn a 11 + b 11 a 1 + b 1 a 1n + b 1n = a 1 + b 1 a + b a n + b n a m1 + b m1 a m + b m a mn + b mn Für jede reelle Zahl λ R ist das Produkt λa definiert als a 11 a 1 a 1n λa 11 λa 1 λa 1n λ a 1 a a n = λa 1 λa λa n a m1 a m a mn λa m1 λa m λa mn Für die n 1 Matrizen und die 1 n Matrizen sind es die üblichen Operationen mit den Spaltenvektoren, beziehungsweise Zeilenvektoren: a 1 b 1 a 1 + b 1 a 1 λa 1 a. + b. = a + b a λ = λa a n b n. a n + b n. a n. λa n (a 1, a,..., a n ) + (b 1, b,..., b n ) = (a 1 + b 1, a + b,..., a n + b n ) λ(a 1, a,..., a n ) = (λa 1, λa,..., λa n ) Das Produkt einer Matrix A mit 1 wird mit A bezeichnet: a 11 a 1 a 1n A = a 1 a a n a m1 a m a mn 8

14 Die Differenz zweier Matrizen wird definiert als: Die Nullmatrix A B := A + ( B) = (a ij b ij ) m n 0 := spielt dieselbe Rolle, wie 0 bei den reellen Zahlen: es gilt A + 0 = A, wobei A eine beliebige m n Matrix ist, und 0 die m n Nullmatrix.. Die Matrizenmultiplikation Zeile mal Spalte Es seien b 1 b a = (a 1, a,..., a n ), b =. ein Zeilenvektor und ein Spaltenvektor der gleichen Länge (Höhe). Ihr Produkt wird definiert als b 1 b (a 1, a,..., a n ). := a 1b 1 + a b + a n b n b n Bemerkung.1. Bei n = und n = 3 erkennt man hier das Skalarprodukt in R, bzw. in R 3. Beispiel (, 3, 0, 5, 1) 4 1 = = 8 0 Jetzt können wir das Produkt zweier Matrizen definieren. Definition.3. Es seien b n A = (a ij ) m n und B = (b ij ) n p eine m n und eine n p Matrix. Das Produkt C = AB ist eine m p Matrix definiert durch C = (c ij ) m p, c ij = a i1 b 1j + a i b j + + a in b nj 9

15 In Worten: Um die Zahl in der i-ten Zeile und j-ten Spalte von AB zu berechnen, multipliziert man die i-te Zeile von A mit der j-ten Spalte von B. Beispiel.4. ( ) 1 0 ( ) = Insbesondere, die zweite Zeile von A mal die erste Spalte von B ergibt = 14, die Zahl in der zweiten Zeile, ersten Spalte von AB: ( ) 1 0 ( ) = Beachte: AB ist nur erklärt wenn die Zeilen von A dieselbe Länge haben, wie die Spalten von B. Das Produkt ( ) ( ) ist nicht definiert! Beispiel.5. Für die Matrizen A = ( 1 ) B = kann man die Produkte AB und BA bilden: ( ) 1 0 AB = 0 ( ) = ( ) BA = = Beispiel.6. Wenn man eine n 1 Matrix (Spaltenvektor) mit einer 1 n Matrix (Zeilenvektor) multipliziert, dann erhält man eine n n Matrix: 1 ( 1 3 ) = Matrizenmultiplikation und lineare Gleichungssysteme Sei A eine m n-matrix, und sei x R n ein Spaltenvektor der Höhe n. Das Produkt Ax ist dann ein Spaltenvektor der Höhe m, und zwar: a 11 a 1 a 1n x 1 a 11 x 1 + a 1 x + + a 1n x n a 1 a a n x. = a 1 x 1 + a x + + a n x n. a m1 a m a mn x n a m1 x 1 + a m x + + a mn x n 10

16 Darin erkennen wir die linken Seiten des linearen Gleichungssystems aus dem Abschnitt 1.. Und zwar, ein LGS mit Koeffizientenmatrix A kann als Ax = b aufgeschrieben werden, wobei b R m ein Spaltenvektor ist. Rechenregeln Definition.7. Die Matrix E n := heißt n n-einheitsmatrix. Satz 1. Für alle m n-matrizen A, A 1, A, n p-matrizen B, B 1, B und jede p q Matrix C gilt: a) (A 1 + A )B = A 1 B + A B, A(B 1 + B ) = AB 1 + AB b) (AB)C = A(BC) c) E m A = A = AE n d) Im Allgemeinen, AB BA. Man sagt dafür, die Matrizenmultiplikation ist nicht kommutativ. Beweis. a) ist klar und kann einfach nachgerechnet werden. b), mit etwas mehr Mühe, auch. Zum c): um das (i, j)-element im Produkt E m A zu berechnen, multiplizieren wir die i-te Zeile von E m mit der j-ten Spalte von A. In der i-ten Zeile von E m steht 1 auf der i-ten Stelle, alle anderen Elemente sind 0. Das Auflegen der i-ten Zeile von E m auf die j-te Spalte von A wählt also das i-te Element aus dieser Spalte, und das ist a ij. Das zeigt E m A = A. Analog wird AE n = A bewiesen Für d) genügt es, ein Gegenbeispiel zu geben. Es sei Dann gilt A = AB = ( ) ( ) B = BA = ( ) ( ) (1.8) Beachte außerdem, dass für eine m n-matrix A und eine n p-matrix B das Produkt BA nur dann definiert ist, wenn m = p gilt. Bemerkung.8. Auf den Matrizen (1.8) kann man weitere Unterschiede zwischen der Matrizenmultiplikation und der Multiplikation reeller Zahlen demonstrieren: Es gilt AB = 0, während A 0 und B 0. Es gilt A = 0, während A 0. Es gilt BA = A, während B E und A 0. 11

17 .3 Invertierbare Matrizen In diesem Abschnitt betrachten wir nur quadratische n n-matrizen und bezeichnen E := E n. Definition.9. Eine n n-matrix A heißt invertierbar, wenn es eine n n- Matrix B gibt, so dass AB = E = BA In diesem Fall ist die Matrix B eindeutig bestimmt, wird mit A 1 bezeichnet, und heißt inverse Matrix von A. Beweisen wir die Eindeutigkeit der Inversen: Lemma 1. Gilt AB = E = BA und AC = E = CA, so gilt B = C. Beweis. Einerseits gilt BAC = (BA)C = EC = C Andererseits, BAC = B(AC) = BE = B Folglich, B = C. ( ) a b Lemma. Sei A = mit ad bc 0. Dann ist A invertierbar, und c d zwar ( ) A 1 1 d b = ad bc c a Beweis. Setze B := 1 ad bc ( d b c a ( ) ( ) 1 a b d b AB = = ad bc c d c a ( ) ( ) 1 d b a b BA = = ad bc c a c d ). Dann gilt 1 ( ad bc 0 ad bc 0 ad bc 1 ad bc ( ad bc 0 0 ad bc ) = E ) = E Bemerkung.10. Wie wir später feststellen werden, sind -Matrizen mit ad bc = 0 nicht invertierbar. Dies ist noch ein Unterschied zu reellen Zahlen, wo nur die Null keine Inverse besitzt. Bald werden wir auch sehen, dass aus BA = E auch AB = E folgt (allerdings unter der Voraussetzung, dass A und B quadratische Matrizen sind!). Das heißt, um festzustellen, dass B die Inverse zu A ist, genügt es nur eine der Gleichungen AB = E, BA = E zu überprüfen. 1

18 Rechenregeln Satz. a) Die Inverse einer invertierbarer Matrix ist invertierbar, und zwar (A 1 ) 1 = A. b) Das Produkt zweier invertierbaren Matrizen ist ebenfalls invertierbar, und zwar: (AB) 1 = B 1 A 1 (1.9) Beweis. Zum a): sei A invertierbar, bezeichne A 1 mit B. Per Definition AB = E = BA. Diese zwei Gleichungen können nach derselben Definition auch als A = B 1 interpretiert werden. Also gilt A = (A 1 ) 1. b) wird durch Umformen bewiesen: (AB)(B 1 A 1 ) = A(BB 1 )A 1 = AEA 1 = AA 1 = E (B 1 A 1 )(AB) = B 1 (A 1 A)B = B 1 EB = B 1 B = E Bemerkung.11. Der Grund, warum (AB) 1 = A 1 B 1 nicht immer gilt, liegt darin, dass die Matrizenmultiplikation nichtkommutativ ist. Die folgende Erklärung von AB BA und von (1.9) sieht als Witz aus, hat aber einen wahren Kern: Sei A = Socke anziehen, B = Schuh anziehen. Dann Außerdem gilt AB = erst die Socke anziehen, dann den Schuh BA = erst den Schuh anziehen, dann die Socke AB (AB) 1 = AB rückgängig machen = erst den Schuh ausziehen, dann die Socke = B 1 A 1.4 Die Transponierte einer Matrix Jeder m n-matrix A ist die n m-matrix A zugeordnet, die durch Spiegelung von A in der Geraden durch die Elemente (a ii ) entsteht. Definition.1. Die Transponierte von A = (a ij ) m n ist die Matrix B = (b ij ) n m mit b ij = a ji. Nochmal anders augedrückt, aus den Zeilen von A werden Spalten von A. Beispiel.13. ( ) = (x 4 5 1, x,..., x n ) = 6 5 Aus dem Buch von Coxeter Introduction to Geometry. Was die Socken..., nein, was die Matrizen mit Geometrie zu tun haben, wird in einem der folgenden Abschnitte erklärt. x 1 x. x n 13

19 Man benutzt (x 1, x,..., x n ) häufig als platzsparende Schreibweise für Spaltenvektoren. Zum Beispiel, das Skalarprodukt zweier Spaltenvektoren x = (x 1, x,..., x n ) und y = (y 1, y,..., y n ) kann wie folgt geschrieben werden: x, y = i x i y i = x y Rechenregeln Satz 3. Für alle λ R, alle m n-matrizen A, A 1, A und n p Matrizen B gilt a) (A 1 + A ) = A 1 + A, (λa) = λa b) (A ) = A c) (AB) = B A Beweis. Punkte a) und b) sind klar. Zum c): Man bemerke, dass (AB) = A B kann schon deswegen nicht wahr sein, weil A eine n m-, und B eine p n-matrix ist, und sie können in dieser Reihenfolge nicht multipliziert werden, wenn m p ist. Um (AB) = B A zu beweisen, bezeichnen wir mit Z i = (a i1, a i,..., a in ) die i-te Zeile von A, und mit S j die j-te Spalte von B: Z 1 Z A =., B = ( ) S 1, S,..., S p Z m Nach dem Multiplikationsgesetz, Z 1 S 1 Z 1 S... Z 1 S p AB = Z S 1 Z S... Z S p Z m S 1 Z m S... Z m S p Andererseits, S 1 A = ( Z1, Z,..., Zm), B S =. (aus Zeilen von A werden Spalten von A, und aus Spalten von B Zeilen von B ), und folglich S1 Z1 S1 Z... S1 Zm B A = S Z1 S Z... S Zm Sp Z1 Sp Z... Sp Zm Wegen Z i S j = S j Z i folgt (AB) = B A. S p 14

20 Satz 4. Ist A eine invertierbare n n-matrix, so ist A ebenfalls invertierbar, und es gilt (A ) 1 = (A 1 ) Beweis. Aus A (A 1 ) = (A 1 A) = E = E und (A 1 ) A = (AA 1 ) = E = E folgt, dass (A 1 ) die zu A Inverse ist. Symmetrische und schiefsymmetrische Matrizen Definition.14. Eine n n-matrix A heißt symmetrisch, wenn A = A gilt, und schiefsymmetrisch falls A = A. Mit anderen Worten, A symmetrisch a ij = a ji für alle i, j A schiefsymmetrisch a ij = a ij für alle i, j Insbesondere, bei i = j gilt a ii = a ii, und folglich a ii = 0: alle Diagonalelemente einer schiefsymmetrischen Matrix sind gleich Null Beispiel symmetrisch schiefsymmetrisch.5 Diagonal- und Dreiecksmatrizen Hier betrachten wir nur quadratische Matrizen. Definition.16. Eine n n-matrix wird Diagonalmatrix genannt, wenn alle ihre Elemente außerhalb der Diagonale gleich Null sind: A ist eine Diagonalmatrix a ij = 0 bei i j Für Diagonalmatrizen wird die folgende Bezeichnung benutzt: α Diag(α 1, α,..., α n ) := 0 α α n Diagonalmatrizen sind besonders leicht miteinander zu multiplizieren: Diag(α 1, α,..., α n ) Diag(β 1, β,..., β n ) = Diag(α 1 β 1, α β,..., α n β n ) Sind alle α i 0, dann ist die zugehörige Diagonalmatrix invertierbar, und es gilt ( ) 1 Diag(α 1, α,..., α n ) = Diag,,..., α 1 α α n 15

21 Definition.17. Eine n n-matrix wird obere, bzw. untere Dreiecksmatrix genannt, wenn alle ihre Elemente unterhalb, bzw. oberhalb der Diagonale gleich Null sind: A ist eine obere Dreiecksmatrix a ij = 0 bei i j A ist eine untere Dreiecksmatrix a ij = 0 bei i j Beispiel obere Dreiecksmatrix untere Dreiecksmatrix Lemma 3. Das Produkt zweier oberer Dreiecksmatrizen ist eine obere Dreiecksmatrix; das Produkt zweier unterer Dreiecksmatrizen ist eine untere Dreiecksmatrix. Beweis. Seien A und B obere Dreiecksmatrizen, sei C = AB. Es soll gezeigt werden, dass c ij = 0 bei i > j gilt. Per Definition, c ij = a i1 b 1j + a i b j a in b nj Es gilt aber a i1 = a i =... = a i,i 1 = 0 und b j+1,j =... = b nj = 0. Deswegen ist in jedem Produkt a ik b kj mindestens ein Faktor gleich Null. Also gilt c ij = 0. Anschaulich: beim Auflegen der i-ten Zeile von A auf die j-te Spalte von B überlappen sich die Abschnitte aus den Nullen (oder zumindest bedecken die ganze Spalte)..6 Berechnung der inversen Matrix mit dem Gauß-Jordan- Verfahren Durch elementare Zeilenumformungen kann man feststellen, ob eine gegebene n n-matrix A invertierbar ist, und gegebenenfalls die Inverse finden. Wir illustrieren das Verfahren auf zwei Beispielen: A 1 = A = Das Gauß-Jordan-Verfahren Als erstes bildet man die n n-matrix (A E): Vorwärtselimination In diesem Schritt wendet man auf die Matrix (A E) elementare Zeilenumformungen an, bis ihre linke Hälfte Zeilenstufenform annimmt: ( A E ) elementare ( S P ) (1.10) Zeilenumformungen 16

22 In unseren Beispielen sieht es wie folgt aus: Z Z + Z 1 Z Z + Z 1 ; Z 3 Z 3 + Z Z 3 Z 3 + Z Z Z Z 1 Z ; Z 3 1 Z Invertierbarkeitsentscheidung Enthält die Matrix S in (1.10) eine Null- Zeile, so ist die ursprüngliche Matrix A nicht invertierbar. Das ist der Fall mit der Matrix A 1 in unserem Beispiel. Enthält die Matrix S keine Null-Zeile, so ist sie eine obere Dreiecksmatrix mit allen Diagonalelementen gleich 1: 1. S = In diesem Fall ist die ursprüngliche Matrix A invertierbar, und wir gehen zum nächsten Schritt über. In diesem Schritt wird die linke Hälfte zur Einheits- Rückwärtssubstitution matrix umgeformt: ( S P ) elementare ( E B ) Zeilenumformungen Um dies zu erreichen, subtrahieren wir die Vielfachen der letzten Zeile aus den vorherigen Zeilen, so dass in der n-ten Spalte sich Nullen über 1 bilden; danach subtrahieren wir die Vielfachen der vorletzten Zeile aus allen vorherigen, 17

23 usw. Auf unserem Beispiel: Z 1 Z 1 + Z Z 1 Z 1 + Z Satz 5. Die beim Gauß-Jordan-Verfahren in der rechten Hälfte entstehende Matrix B: (A E) (S P ) (E B) ist die inverse Matrix von A: B = A 1 Diesen Satz beweisen wir im nächsten Abschnitt. Jetzt überzeugen wir uns, dass die Matrix in unserem Beispiel invers zu A ist: = = = Begründung des Gauß-Jordan-Verfahrens Um den Satz 5 zu beweisen, stellen wir eine Verbindung zwischen elementaren Zeilenumformungen und Matrizenmultiplikation her. Elementare Zeilenumformungen und Elementarmatrizen Definition.19. Eine n n-matrix Ẽ heißt Elementarmatrix, wenn sie aus der n n-matrix durch eine elementare Zeilenumformung hervorgeht. Wir sagen, Ẽ gehört zu dieser Umformung. Zum Beispiel: 18

24 gehört zur Vertauschung der ersten und der zweiten Zeilen; gehört zur Division der zweiten Zeile durch ; gehört zur Subtraktion des Zweifachen der dritten Zeile aus der ersten Lemma 4. Sei A eine n p-matrix. Entsteht à aus A durch eine elementare Zeilenumformung, so gilt à = ẼA mit der zugehörigen Elementarmatrix Ẽ. Beweis. Wir illustrieren es auf einem Beispiel: 1 0 a b a e c d = c e f e b f d f (Das Auflegen der ersten Zeile der Matrix Ẽ auf die Spalten von A subtrahiert aus der ersten Zeile die zweifache dritte; die zweite und die dritte Zeilen von Ẽ sind gleich denen der Einheitsmatrix, deswegen bleiben die zweite und die dritte Zeile von A erhalten.) Beweis des Satzes 5 Lemma 5. Für die beim Gauß-Jordan-Verfahren entstehende Matrix B: gilt BA = E. (A E) (E B) Beweis. Werden auf A elementare Zeilenumformungen angewendet, so transformiert sie sich gemäß A Ẽ1A ẼẼ1A Ẽ3ẼẼ1A... Dementsprechend sieht das Gauß-Jordan-Verfahren wie folgt aus: (A E) (Ẽ1A Ẽ 1 ) (ẼẼ1A Ẽ Ẽ 1 )... (E B) Es gilt also (s bezeichne die benötigte Anzahl der elementaren Zeilenumformungen): (Ẽs Ẽ1)A = E Ẽ s Ẽ1 = B (1.11) woraus folgt BA = E. Lemma 6. Sei B = Ẽs... Ẽ1 Produkt einer Anzahl der Elementarmatrizen. Dann ist B invertierbar. 19

25 Beweis. Jede Elementarmatrix ist invertierbar, weil jede elementare Zeilenumformung eine inverse hat. Zum Beispiel, die zu Z 1 Z 1 Z 3 inverse Umformung ist Z 1 + Z 3, und dementsprechend = E 3 = Ein Produkt invertierbarer Matrizen ist aber auch invertierbar, und zwar B 1 = (Ẽs... Ẽ1) 1 = Ẽ Ẽ 1 s Beweis des Satzes 5. Wir müssen zeigen, dass A invertierbar ist und A 1 = B gilt. Nach Lemma 5 gilt BA = E und nach Lemma 6 gibt es eine Matrix C, sodass CB = E = BC. Daraus folgt CBA = (CB)A = EA = A CBA = C(BA) = CE = C Folglich ist A die Inverse zu B, und das heißt, B ist die Inverse zu A (siehe Satz ). Begründung der Invertierbarkeitsentscheidung Wir haben gezeigt, dass beim Gauß-Jordan-Verfahren wirklich die inverse Matrix entsteht. Was noch unbegründet bleibt ist warum quadratische Matrizen, die in Zeilenstufenform eine Nullzeile enthalten, nicht invertierbar sind. Lemma 7. Sei S eine n n-matrix, die Nullzeile enthält. Dann ist S nicht invertierbar. Beweis. Wenn die i-te Zeile von S nur aus Nullen besteht, dann besteht auch die i-te Zeile von ST nur aus Nullen, für jede Matrix T. Deswegen kann ST nicht gleich der Einheitsmatrix sein, d. h. S ist nicht invertierbar. Lemma 8. Wenn nach der Vorwärtselimination (A E) (S P ) die Matrix S eine Nullzeile enthält, dann ist die Matrix A nicht invertierbar. Beweis. Bei der Vorwärtselimination wird die Matrix A von links mit Elementarmatrizen multipliziert: S = Ẽt ẼẼ1A = P A Die Matrix P, als Produkt von Elementarmatrizen, ist invertierbar. Wenn die Matrix A invertierbar wäre, dann wäre auch S = P A invertierbar. Nach dem vorherigen Lemma ist das nicht der Fall, also ist A nicht invertierbar. Korollar 1. Jede invertierbare Matrix kann als Produkt von Elementarmatrizen dargestellt werden. Beweis. Wenn A invertierbar ist, dann kann ihre Inverse mit dem Gauß-Jordan- Verfahren berechnet werden. Bei diesem Verfahren entsteht die Inverse als Produkt von Elementarmatrizen, siehe (1.11). 0

26 Das Lösen der LGS mit dem Gauß-Jordan-Verfahren Der letzte Schritt des Gauß-Jordan-Verfahrens heißt Rückwärtssubstitution, genau wie beim Gauß-Verfahren zum Lösen eines LGS. In der Tat kann dieser Schritt auch beim Lösen eines LGS über Matrizen und nicht über lineare Gleichungen ausgeführt werden. Beim Lösen eines LGS mit dem Gauß-Jordan-Verfahren wird die erweiterte m (n + 1)-Matrix (A b) in die folgende Form gebracht: Im entsprechenden LGS kommt jede abhängige Variable nur einmal vor, und zwar an der -Stelle. Um die allgemeine Lösung zu erhalten, reicht es jetzt die unabhängigen Variablen in λ 1, λ,... umzubenennen und auf die rechte Seite zu bringen. Das Lösen der LGS mit Hilfe der inversen Matrix Besonders einfach sieht das Gauß-Jordan-Verfahren bei einem LGS aus n Gleichungen für n Unbekannten, dessen Matrix invertierbar ist. In diesem Fall entsteht am Ende die Matrix c c c n Das heißt, das System hat eine eindeutige Lösung x 1 = c 1, x = c,..., x n = c n. Diese Lösung kann wie folgt beschrieben werden. Satz 6. Sei Ax = b ein lineares Gleichungssystem aus n Gleichungen für n Unbekannten und einer invertierbaren Matrix A. Dann hat es eine eindeutige Lösung x = A 1 b Beweis. Multipliziere beide Seiten der Gleichung Ax = b mit der Matrix A 1 von links. 3 Vektorräume 3.1 Linearkombinationen Definition 3.1. Seien v 1, v,..., v k R n beliebige Vektoren, und seien α 1, α,..., α k R beliebige reelle Zahlen. Dann heißt α 1 v 1 + α v α k v k = 1 k α i v i i=1

27 Linearkombination der v i (mit Koeffizienten α i ). Beispiel 3.. v 1 + v 3v 3 ist eine Linearkombination von Vektoren v 1, v, v 3. Es seien v 1 = (1, 1, 1), v = (, 1, ), v 3 = (1, 1, 0). Dann gilt v 1 + v 3v 3 = = Man sagt, dass der Vektor (1, 0, 0) als Linearkombination von v 1, v, v 3 dargestellt werden kann. Beispiel 3.3. Jeder Vektor in R n kann als Linearkombination von Basisvektoren dargestellt werden: bezeichne e 1 = (1, 0,..., 0) e = (0, 1,..., 0) e n = (0, 0,..., 1) Sei v = (x 1, x,..., x n ) beliebig. Dann gilt v = x 1 e 1 + x e + + x n e n Koeffizienten dieser Linearkombination sind also nichts anderes als die Komponenten des Vektors. Bei den elementaren Zeilenumformungen bilden man Linearkombinationen von Zeilen, wie z. B. Z i + αz j. Wir haben gesehen (Lemma 4), dass dies der Multiplikation von links mit einer Elementarmatrix entspricht. Allgemeiner gilt Lemma 9. Sei A eine m n-matrix, und sei P eine m m-matrix. Betrachten wir das Produkt A := P A Dann ist jede Zeile von A eine Linearkombination der Zeilen von A. Wenn die Matrix P invertierbar ist, dann ist auch jede Zeile von A eine Linearkombination der Zeilen von A. Beweis. Bezeichne mit Z i die i-te Zeile der Matrix A, mit Z i die i-te Zeile der Matrix A : Z 1 Z A =. Z m Dann gilt p 11 p 1 p 1m Z 1 P A = p 1 p p m Z. = p m1 p m p mm Z m Z 1 Z A =. Z m p 11 Z 1 + p 1 Z p 1m Z m p 1 Z 1 + p Z p m Z m p m1 Z 1 + p m Z p mm Z m

28 Also gilt Wenn P invertierbar ist, dann Z i = p i1 Z 1 + p i Z p im Z m A = P A A = P 1 A, woraus folgt, dass auch die Zeilen von A als Linearkombinationen von Zeilen von A dargestellt werden können. 3. Der Rang einer Matrix Definition 3.4. Sei A eine m n-matrix, und sei S eine Zeilenstufenmatrix, die aus A mittels Vorwärtselimination entsteht. Dann heißt die Anzahl der Nichtnullzeilen in S der Rang von A. Bezeichnung: Rang A. Die Definition gibt auch eine Anleitung zur Berechnung des Rangs von A: die Matrix soll in die Zeilenstufenform gebracht werden, die Anzahl der Nichtnullzeilen ist gleich dem Rang. Beispiel 3.5. Rang = (Zeilenumformung Z 3 Z 3 Z 1 bringt die Matrix in Zeilenstufenform) Rang = Rang = Eine Matrix hat Rang 0 genau dann, wenn alle ihre Einträge gleich Null sind. (Die Zeilenstufenmatrix S darf nur aus Nullzeilen bestehen, daraus folgt, dass in A alle Zeilen auch Nullzeilen sind.) Es gibt ein Problem mit der Definition 3.4. Bei der Vorwärtselimination muss man manchmal eine Wahl treffen, und zwar bei der Zeilenvertauschung, wo eine Zahl ungleich Null in einer Spalte gesucht wird. Und bei unterschiedlichen Wahlen kann man unterschiedliche Zeilenstufenmatrizen am Ende erhalten. Wir müssen zeigen, dass die Anzahl der Nichtnullzeilen in der Zeilenstufenmatrix S unabhängig davon ist, durch welche elementare Zeilenumformungen S aus A entstanden ist. Lemma 10. Der Rang ist wohldefiniert. Das heißt, wenn S und S zwei unterschiedliche Zeilenstufenmatrizen sind, die aus A durch elementare Zeilenumformungen entstehen, dann ist die Anzahl der Nichtnullzeilen in S gleich der Anzahl der Nichtnullzeilen in S. Beweis. Da S und S aus A durch elementare Zeilenumformungen entstehen, gilt S = P A, S = P A, wobei P und P Produkte von Elementarmatrizen sind. Das bedeutet insbesondere, dass P und P invertierbar sind (Lemma 6), sodass S = P A A = P 1 S S = P P 1 S 3

29 Nach dem Lemma 9, die Zeilen von S sind Linearkombinationen der Zeilen von S. Da P P 1 invertierbar ist: (P P 1 ) 1 = P (P ) 1, sind auch die Zeilen von S Linearkombinationen der Zeilen von S. Jetzt wollen wir die Tatsache ausnutzen, dass S und S Zeilenstufenform haben. Sagen wir, dass eine Zeile Leitindex j hat, wenn ihr erstes Nichtnullelement an der j-ten Stelle vorkommt (für Nullzeilen wird der Leitindex nicht definiert). In Zeilenstufenmatrizen haben wir diese Elemente mit -bezeichnet. Es seien die Leitindizes der Nichtnullzeilen von S. j 1 < j <... < j r (1.1) Behauptung Eine Linearkombination von Zeilen mit Leitindizes (1.1) ist entweder eine Nullzeile oder hat den Leitindex aus derselben Menge (1.1). Sei Z = α 1 Z 1 +α Z +...+α r Z r eine beliebige Linearkombination. Wenn α 1 0 ist, dann hat Z den Leitindex j 1, denn die Summanden ab α Z sind Zeilen, die auf den ersten j 1 Stellen (und eventuell noch weiter) nur Nullen haben. Wenn α 1 = 0, aber α 0, dann hat Z den Leitindex j, usw. Eine Nullzeile kann nur dann entstehen, wenn α 1 = α =... = α r = 0 gilt. Hiermit ist die Behauptung bewiesen. Aus der bewiesenen Behauptung folgt, dass die Leitindizes der Zeilen von S sind unter den Leitindizes der Zeilen von S enthalten, und umgekehrt. Daraus folgt, dass die Treppe von S dieselben Stufentiefen hat, wie die Treppe von S. Insbesondere, sind die Anzahlen der Stufen in beiden Treppen gleich, d. h. die Anzahlen der Nichtnullzeilen. Mit Hilfe des Rangs können wir einige Punkte im Gauß-Verfahren zum Lösen eines LGS neu formulieren. Lemma 11. Sei Ax = b ein lineares Gleichungssystem aus m Gleichungen für n Unbekannte. a) Das System ist genau dann lösbar, wenn gilt Rang A = Rang(A b) (1.13) b) Wird die Bedingung (1.13) erfüllt, und gilt Rang A = r, so hat die allgemeine Lösung des Systems n r freie und r abhängige Variablen. Beweis. Zum a): Bei der Lösbarkeitsentscheidung wird die Matrix (A b) in Zeilenstufenform (S c) gebracht. Hat die Matrix (S c) eine Stufe mehr als die Matrix S, so enthält das umgeformte LGS eine Gleichung 0 = c i mit c i 0 und ist deswegen nicht lösbar. Hat (S c) genauso viele Stufen wie S, dann gilt Rang A = Rang(A b), und auch das LGS ist lösbar. Zum b): Rang A ist die Anzahl der Nichtnullzeilen in S. Jede Nichtnullzeile entspricht einer abhängigen Variable. Daher ist die Anzahl der abhängigen Variablen gleich r. Die übrigen n r Variablen sind frei. 4

30 3.3 Lineare Teilräume von R n Definition 3.6. Eine nichtleere Teilmenge U R n heißt linearer Teilraum (oder linearer Unterraum) von R n, wenn gilt: a) u, v U u + v U b) u U, λ R λu U Das heißt, mit je zwei Vektoren u, v U soll U auch ihre Summe enthalten, und mit jedem Vektor u alle seine Vielfachen. Beispiel 3.7. Wähle ein v R n und betrachte die Menge Das ist ein linearer Teilraum, denn Rv := {αv α R} für alle α, β R gilt αv + βv = (α + β)v Rv (Summe zweier Vielfachen von v ist wieder ein Vielfaches von v; für alle α R, λ R gilt λ(αv) = (λα)v (Vielfaches eines Vielfachen ist wieder ein Vielfaches) Den Teilraum Rv kann man sich als eine Gerade durch den Koordinatenursprung mit dem Richtungsvektor v vorstellen. Beispiel 3.8. Insbesondere ist R ein linearer Teilraum von R = 1 λ λ, λ R λ Beispiel 3.9. Hingegen ist eine Gerade, die nicht durch den Koordinatenursprung geht, kein linearer Teilraum von R n. Betrachte z. B. die Gerade L = {x + y = 1} in R. Die Punkte v = (1, 0) und w = (0, 1) liegen auf L, ihre Summe v + w = (1, 1) allerdings nicht. Die Bedingung a) aus der Definition 3.6 wird also nicht erfüllt. Beachte, dass wir Punkte mit ihren Ortsvektoren identifizieren. Es ist in diesem Sinne, dass wir über die Summe zweier Punkte reden. Beispiel Eine Ebene in R 3, die durch den Koordinatenursprung geht, ist ein linearer Teilraum von R 3, denn sowohl die Summe zweier Ortsvektoren, als auch das Vielfache eines Ortsvektors bleiben in derselben Ebene liegen. Speziell ist die xy-koordinatenebene {(α, β, 0) α, β R} ein linearer Teilraum von R 3. Eine Ebene, die nicht durch den Koordinatenursprung geht, ist kein linearer Teilraum. Allgemein kann man sich einen linearen Teilraum von R n als eine mehrdimensionale Ebene durch den Koordinatenursprung im noch mehrdimensionalen Raum denken. Während es bei der Dimension des Raums R n um die Zahl n geht, soll der Begriff der Dimension eines Teilraums noch definiert werden. Zuerst aber betrachten wir zwei Möglichkeiten, einen linearen Teilraum von R n zu beschreiben. Sie sind analog zu der Parameterdarstellung, bzw. impliziter Darstellung von Geraden und Ebenen. 5

31 Lineare Hülle oder Parameterdarstellung eines linearen Teilraums Definition Seien v 1, v,..., v k Vektoren aus R n. Die Menge aller ihrer Linearkombinationen heißt lineare Hülle der v i und wird mit Lin(v 1, v,..., v k ) bezeichnet: Lin(v 1, v,..., v k ) := {α 1 v 1 + α v α k v k α i R} Beispiel 3.1. Die lineare Hülle der Vektoren (1, 1, 1) und (1,, 3) ist 1 1 λ 1 + µ λ, µ R 1 3 d. h. die Ebene durch den Koordinatenursprung und mit Richtungsvektoren (1, 1, 1) und (1,, 3). Beispiel Die lineare Hülle eines Vektors v ist die Menge Rv, siehe Beispiel 3.7. Lemma 1. Die lineare Hülle Lin(v 1, v,..., v k ) ist ein linearer Teilraum von R n. Beweis. Wir sollen zeigen, dass für die Menge Lin(v 1, v,..., v k ) R n die beiden Bedingungen aus der Definition 3.6 erfüllt sind. a): u, v Lin(v 1, v,..., v k ) bedeutet, dass u und v Linearkombinationen der Vektoren v 1, v,..., v k sind: u = α 1 v 1 + α v α k v k, v = β 1 v 1 + β v β k v k Die Summe zweier Linearkombinationen ist wieder eine Linearkombination: u + v = (α 1 + β 1 )v 1 + (α + β )v (α k + β k )v k Also für alle u, v Lin(v 1, v,..., v k ) gilt auch u + v Lin(v 1, v,..., v k ). b): Wenn u Lin(v 1, v,..., v k ) und λ R, dann gilt λu = λ(α 1 v 1 + α v α k v k ) = λα 1 v 1 + λα v λα k v k (ein Vielfaches einer Linearkombination ist wieder eine Linearkombination). Also aus u Lin(v 1, v,..., v k ) und λ R folgt λu Lin(v 1, v,..., v k ). Definition Der Zeilenraum einer Matrix wird definiert als die lineare Hülle ihrer Zeilen. Der Zeilenraum einer m n-matrix ist hiermit ein linearer Teilraum von R n. Bemerkung Die lineare Hülle der Vektoren v 1, v,..., v k ist der kleinste lineare Teilraum von R n, der v 1, v,..., v k enthält. In der Tat, wiederholte Anwendung der Eigenschaften a) und b) aus der Definition 3.6 zeigt, dass jeder linearer Unterraum, der v 1, v,..., v k enthält, auch jede ihre Linearkombination enthalten soll. 6

32 Nullraum oder implizite Darstellung eines linearen Teilraums Definition Sei A eine m n-matrix. Die Lösungsmenge des homogenen linearen Gleichungssystems Ax = 0 wird der Kern von A oder der rechte Nullraum von A genannt. Bezeichnung: Kern A := {x R n Ax = 0} Lemma 13. Der Kern einer m n-matrix A ist ein linearer Teilraum von R n. Beweis. Sind u, v Kern A, so bedeutet das Au = Av = 0. Dann gilt auch A(u + v) = Au + Av = = 0, und das bedeutet u + v Kern A. Analog, wenn u Kern A und λ R, dann folgt aus Au = 0 A(λu) = λ(au) = λ 0 = 0, also λu Kern A. Hiermit sind beide Bedingungen aus Definition 3.6 erfüllt, und Kern A R n ist ein linearer Teilraum. Beispiel Die 1 3-Matrix A = (1,, 3) entspricht der linearen Gleichung x + y + 3z = 0, deren Lösungsmenge eine Ebene durch den Nullpunkt in R 3 ist. Die 3-Matrix A = ( ) entspricht dem LGS 1 3 x + y + z = 0 x + y + 3z = 0 Das Lösen mit dem Gauß-Verfahren ergibt z = λ, y = λ, x = λ, d. h. Kern ( ) = 1 3 λ λ λ R λ Dieser lineare Teilraum ist eine Gerade durch den Nullpunkt mit dem Richtungsvektor (1,, 1). Fundamentallösungen eines homogenen LGS Das Lösen eines homogenen LGS Ax = 0 ist nichts anderes als Übergang von einer impliziten Darstellung eines linearen Teilraums zu einer Parameterdarstellung. In der Tat, wenn die freien Variablen gleich λ 1, λ,..., λ s gesetzt werden, dann wird die allgemeine Lösung als eine Linearkombination mit Koeffizienten λ i dargestellt. Die dabei kombinierte Vektoren heißen Fundamentallösungen. 7

33 Beispiel Die allgemeine Lösung des LGS x 1 x + 3x 3 + 4x 4 + x 5 = 0 x 3 + x 4 4x 5 = 0 x 4 + 3x 5 = 0 haben wir in der ersten Vorlesung wie folgt aufgeschrieben: x 1 λ λ x x 3 x 4 = λ 1 0.5λ 3λ x 5 λ Dasgleiche kann auch anders geschrieben werden: x x x 3 x 4 1 λ λ λ 1, λ R x Die zwei Lösungen (, 1, 0, 0, 0) und ( 15.5, 0, 0.5, 3, 1) heißen Fundamentallösungen des LGS. Angenommen, beim Lösen eines homogenen LGS mit dem Gauß-Verfahren erhalten wir s freie Variablen, die gleich λ 1, λ,..., λ s gesetzt werden. Die Fundamentallösungen des LGS werden wie folgt ermittelt: für die erste Fundamentallösung setzt man λ 1 = 1, λ = 0,..., λ s = 0 ein; für die zweite λ 1 = 0, λ = 1,..., λ s = 0 usw. Insgesamt erhält man s Fundamentallösungen, und die Lösungsmenge des Systems kann als ihre lineare Hülle beschrieben werden. 3.4 Vektorraum: Definition Definition Ein Vektorraum ist eine Menge V, auf welcher zwei Operationen definiert sind: Addition: je zwei Elementen u, v V wird ihre Summe u + v V zugeordnet; Multiplikation mit einer Zahl: jedem u V und jeder Zahl λ R wird ein Element λv V zugeordnet. Für diese Operationen sollen die folgenden Regeln (Vektorraumaxiome) gelten: (A1) u, v V gilt u + v = v + u (A) u, v, w V gilt (u + v) + w = u + (v + w) 8

34 (A3) Es gibt ein Element 0 U, Nullvektor genannt, sodass u + 0 = u für alle u U gilt. 3 (A4) Zu jedem u V gibt es genau ein mit u bezeichnetes Element in V, sodass u + ( u) = 0 gilt. (M1) u V gilt 1u = u (M) λ, µ R und u V gilt λ(µu) = (λµ)u (D1) λ R und u, v V gilt λ(u + v) = λu + λv (D) λ, µ R und u V gilt (λ + µ)u = λu + µu Beispiel 3.0. Das Urbeispiel eines Vektorraums ist natürlich R n : die Menge aller n-tupel reeller Zahlen. Die Menge aller m n-matrizen bildet auch einen Vektorraum. Ein linearer Teilraum von R n ist ein Vektorraum: die Elemente können addiert und mit Zahlen multipliziert werden, die Vektorraumaxiome gelten offensichtlich. Beispiel 3.1. Die Menge aller Funktionen f : R R bildet einen Vektorraum. Für zwei Funktionen f, g und eine reelle Zahl λ definieren wir neue Funktionen f + g und λf als (f + g)(x) := f(x) + g(x) (λf)(x) := λ(f(x)) (Die Summe f + g kann auch als die Summe der Formeln oder die Summe der Graphen beschreiben.) Analog zu Definition 3.6 kann man einen linearen Teilraum eines Vektorraums definieren. Definition 3.. Sei V ein Vektorraum. Eine nichtleere Teilmenge U V heißt linearer Teilraum (oder Untervektorraum) von V, wenn gilt: a) u, v U u + v U b) u U, λ R λu U Das heißt, mit je zwei Elementen u, v U soll U auch ihre Summe enthalten, und mit jedem Element u alle seine Vielfachen. Ein linearer Teilraum ist damit selbst ein Vektorraum (man vergisst den umgebenden Raum V und betrachtet U allein). Beispiel 3.3. Die Menge aller oberen n n-dreiecksmatrizen ist ein linearer Teilraum des Raums aller n n-matrizen. 3 Im Folgenden werde wir den Nullvektor in jedem Vektorraum auch einfach mit 0 bezeichnen. Die Menge aller Polynome ist ein linearer Teilraum des Raums aller Funktionen. In der Tat, die Summe zweier Polynome ist wieder ein Polynom; ein Vielfaches eines Polynoms ist ein Polynom. 9

35 3.5 Basis eines Vektorraums Sei V ein Vektorraum. Genau wie für Vektoren in R n, kann man Linearkombinationen von Elementen aus V definieren: das sind Ausdrücke der Form λ 1 v 1 + λ v λ k v k Mit Linearkombinationen kann man wie gewohnt operieren, dank der Vektorraumaxiomen. Die Menge aller Linearkombinationen von v 1, v,..., v k wird die lineare Hülle von v 1, v,..., v k genannt. Beispiel 3.4. Betrachten wir im Vektorraum aller Funktionen die Funktionen sin x und cos x. Dann gilt Lin(sin x, cos x) = {a sin x + b cos x a, b R} (Wir wissen, dass jede solche Funktion auch als A sin(x + ω 0 ) geschrieben werden kann.) Die lineare Hülle der Funktionen 1, x, x,..., x n ist die Menge aller Polynome vom Grad kleiner oder gleich n. Erzeugendensysteme und lineare Abhängigkeit Definition 3.5. Man sagt, dass (v 1, v,..., v k ) ein Erzeugendensystem von V ist, wenn V = Lin(v 1, v,..., v k ) Mit anderen Worten, jedes Element von V soll als eine Linearkombination von Elementen v 1, v,..., v k darstellbar sein. Beispiel 3.6. R wird erzeugt von (1, 0) und (0, 1), aber auch z. B. von (1, 1) und (1, 1). Der Zeilenraum einer Matrix wird erzeugt von ihren Zeilen. Die Lösungsmenge eines homogenen LGS wird erzeugt durch seine Fundamentallösungen. Die Menge aller Funktionen hat kein endliches Erzeugendensystem. Definition 3.7. Die Vektoren v 1, v,..., v k V heißen linear abhängig, wenn es Zahlen α 1, α,..., α k gibt, die nicht alle gleich Null sind, sodass gilt α 1 v 1 + α v α k v k = 0 (0 auf der rechten Seite bedeutet den Nullvektor) Die Vektoren v 1, v,..., v k heißen linear unabhängig, wenn sie nicht linear abhängig sind, d. h. wenn α 1 v 1 + α v α k v k = 0 α 1 = α =... = α k = 0 30

36 Beispiel 3.8. Die Vektoren in R n sind linear unabhängig, denn e 1 = (1, 0,..., 0) e = (0, 1,..., 0)... e n = (0, 0,..., 1) α 1 e 1 + α e α n e n = (α 1, α,..., α n ), und dies ist ein Nullvektor genau dann wenn alle Koeffizienten α i gleich Null sind. Die Vektoren v 1 = (1, 1, 0), v = (1, 1, 0), v 3 = (0, 1, 0) sind linear abhängig, denn es gilt v 1 v v 3 = 0 Auch die Vektoren v 1 = (1, 1, 1), v = (,, ), v 3 = (3, 3, 3) sind linear abhängig. Hier kann man mehrere verschwindende Linearkombinationen angeben, sowie v 1 v = 0 oder v 1 + v v 3 = 0. Die Funktionen sin x, cos x, sin ( x + π 3 ) sind linear abhängig. Definition einer Basis Definition 3.9. Ein System (v 1, v,..., v k ) von Vektoren aus V heißt eine Basis von V, wenn gilt: a) Die Vektoren v 1, v,..., v k erzeugen V, d. h. V = Lin(v 1, v,..., v k ). b) Die Vektoren v 1, v,..., v k sind linear unabhängig. Beispiel Die Vektoren in R n e 1 = (1, 0,..., 0) e = (0, 1,..., 0)... e n = (0, 0,..., 1) bilden eine Basis von R n. Diese Basis heißt die natürliche Basis oder die Standardbasis von R n. Der Vektorraum R n hat viele andere Basen. Zum Beispiel, ist eine Basis von R. v 1 = (1, 1), v = (1, 1) Die Funktionen sin x und cos x sind linear unabhängig (die Funktion a sin x+ b cos x kann nur bei a = b = 0 identisch Null sein). Deswegen bilden sie eine Basis im Vektorraum aller Funktionen der Form A sin(x + ω 0 ). 31

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

1 Transponieren, Diagonal- und Dreiecksmatrizen

1 Transponieren, Diagonal- und Dreiecksmatrizen Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine Vektorräume (Teschl/Teschl 9 Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen: Eine

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme 3 Lineare Gleichungssysteme 3 Fortsetzung des Matrizenkalküls Als erstes beweisen wir einen einfachen Satz über den Rang von Matrizenprodukten Satz 3 (a) Für Matrizen A : Ã l m, B : Ã m n gilt rang AB

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

2 Matrizenrechnung und Lineare Gleichungssysteme

2 Matrizenrechnung und Lineare Gleichungssysteme Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der

Mehr

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A 133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Ferienkurs Mathematik für Physiker I Skript Teil 3 ( )

Ferienkurs Mathematik für Physiker I Skript Teil 3 ( ) Ferienkurs Mathematik für Physiker I WS 2016/17 Ferienkurs Mathematik für Physiker I Skript Teil 3 (29032017) 1 Lineare Gleichungssysteme Oft hat man es in der Physik mit unbekannten Größen zu tun, für

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Tutorium: Analysis und Lineare Algebra

Tutorium: Analysis und Lineare Algebra Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 14052018 (Teil 1) 7 Mai 2018 Steven Köhler mathe@stevenkoehlerde mathestevenkoehlerde 2 c 2018 Steven Köhler 7 Mai 2018 Matrizen

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5

Mehr

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist 127 Die Schritte des Gauß-Algorithmus sind nun die Folgenden: 1. Wir bestimmen die am weitesten links stehende Spalte, die Einträge 0 enthält. 2. Ist die oberste Zahl der in Schritt 1 gefundenen Spalte

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

$Id: matrix.tex,v /12/02 21:08:55 hk Exp $ $Id: vektor.tex,v /12/05 11:27:45 hk Exp hk $

$Id: matrix.tex,v /12/02 21:08:55 hk Exp $ $Id: vektor.tex,v /12/05 11:27:45 hk Exp hk $ $Id: matrixtex,v 14 2008/12/02 21:08:55 hk Exp $ $Id: vektortex,v 12 2008/12/05 11:27:45 hk Exp hk $ II Lineare Algebra 6 Die Matrixmultiplikation 63 Inverse Matrizen und reguläre lineare Gleichungssysteme

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

HM II Tutorium 5. Lucas Kunz. 22. Mai 2018

HM II Tutorium 5. Lucas Kunz. 22. Mai 2018 HM II Tutorium 5 Lucas Kunz 22. Mai 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Wiederholung Lineare Gleichungsysteme................... 2 1.2 Wiederholung: Kern einer Abbildung..................... 3 1.3

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr

Kapitel 15 Lineare Gleichungssysteme

Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09) Vorlesung Mathematik für Ingenieure Wintersemester 8/9 Kapitel 4: Matrizen, lineare Abbildungen und Gleichungssysteme Volker Kaibel Otto-von-Guericke Universität Magdeburg Version vom 5. November 8 Page-Rank

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

6.5 Lineare Abhängigkeit, Basis und Dimension

6.5 Lineare Abhängigkeit, Basis und Dimension 6.5. Lineare Abhängigkeit, Basis und Dimension 123 6.5 Lineare Abhängigkeit, Basis und Dimension Seien v 1,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

6 Lineare Algebra. 6.1 Einführung

6 Lineare Algebra. 6.1 Einführung 6 Lineare Algebra 6.1 Einführung Die lineare Algebra ist für die Wirtschaftswissenschaften von zentraler Bedeutung. Einerseits liefert sie die theoretischen und praktischen Grundlagen für das Lösen linearer

Mehr

Das inhomogene System. A x = b

Das inhomogene System. A x = b Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist

Mehr

35 Matrixschreibweise für lineare Abbildungen

35 Matrixschreibweise für lineare Abbildungen 35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir

Mehr

MATHEMATIK II FÜR STUDIERENDE DER INFORMATIK UND WIRTSCHAFTSINFORMATIK (ANALYSIS UND LINEARE ALGEBRA) IM SOMMERSEMESTER Inhaltsverzeichnis

MATHEMATIK II FÜR STUDIERENDE DER INFORMATIK UND WIRTSCHAFTSINFORMATIK (ANALYSIS UND LINEARE ALGEBRA) IM SOMMERSEMESTER Inhaltsverzeichnis MATHEMATIK II FÜR STUDIERENDE DER INFORMATIK UND WIRTSCHAFTSINFORMATIK (ANALYSIS UND LINEARE ALGEBRA) IM SOMMERSEMESTER 206 STEFAN GESCHKE Inhaltsverzeichnis Einleitung 3 Literatur 3. Lineare Gleichungssysteme

Mehr

MATHEMATIK II FÜR STUDIERENDE DER INFORMATIK UND WIRTSCHAFTSINFORMATIK (ANALYSIS UND LINEARE ALGEBRA) IM SOMMERSEMESTER Inhaltsverzeichnis

MATHEMATIK II FÜR STUDIERENDE DER INFORMATIK UND WIRTSCHAFTSINFORMATIK (ANALYSIS UND LINEARE ALGEBRA) IM SOMMERSEMESTER Inhaltsverzeichnis MATHEMATIK II FÜR STUDIERENDE DER INFORMATIK UND WIRTSCHAFTSINFORMATIK (ANALYSIS UND LINEARE ALGEBRA) IM SOMMERSEMESTER 208 STEFAN GESCHKE Inhaltsverzeichnis Einleitung 3 Literatur 3. Lineare Gleichungssysteme

Mehr

Tutorium: Analysis und Lineare Algebra

Tutorium: Analysis und Lineare Algebra Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 14.5.218 (Teil 2) 9. Mai 218 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 218 Steven Köhler 9. Mai 218 3 c 218

Mehr

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

3 Matrizen und Lineare Gleichungssysteme

3 Matrizen und Lineare Gleichungssysteme 3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 95 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

Grundlegende Definitionen aus HM I

Grundlegende Definitionen aus HM I Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen

Mehr

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle 2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische

Mehr

Lineare Algebra für Ingenieure

Lineare Algebra für Ingenieure TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

7 Matrizen über R und C

7 Matrizen über R und C Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit

Mehr

8 Lineare Abbildungen und Matrizen

8 Lineare Abbildungen und Matrizen 8 Lineare Abbildungen und Matrizen 8.1 Lineare Abbildungen Wir beschäftigen uns nun mit Abbildungen zwischen linearen Räumen. Von besonderem Interesse sind Abbildungen, die die Struktur der linearen Räume

Mehr

Aufgaben zu Kapitel 16

Aufgaben zu Kapitel 16 Aufgaben zu Kapitel 16 1 Aufgaben zu Kapitel 16 Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2

Mehr

1 Matrizen und Vektoren

1 Matrizen und Vektoren Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Matrizen und Vektoren Definition 1.1 (Matrizen) Ein rechteckiges Zahlenschema aus m mal n Elementen eines Körpers

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Matrixoperationen. Einige spezielle Matrizen: Nullmatrix: n-te Einheitsmatrix: E n := 0 d. TU Dresden, WS 2013/14 Mathematik für Informatiker Folie 1

Matrixoperationen. Einige spezielle Matrizen: Nullmatrix: n-te Einheitsmatrix: E n := 0 d. TU Dresden, WS 2013/14 Mathematik für Informatiker Folie 1 Matrixoperationen Einige spezielle Matrizen: 0 0... 0 Nullmatrix:....... 0 0... 0 1 0... 0 0 1... 0 n-te Einheitsmatrix: E n :=....... 0 0... 1 d 1 0... 0 0 d 2... 0 Diagonalmatrix: diag(d 1,..., d n)

Mehr

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K). Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen

Mehr

6.2 Rechnen mit Matrizen

6.2 Rechnen mit Matrizen 62 Rechnen mit Matrizen 62 Rechnen mit Matrizen 103 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 2011 Olga Holtz MA 378 Sprechstunde Fr 14-16 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 12-14 und nv jokar@mathtu-berlinde Kapitel

Mehr

4. Übungsblatt zur Mathematik II für Inf, WInf

4. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof Dr Streicher Dr Sergiy Nesenenko Pavol Safarik SS 010 11 15 Mai 4 Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G13 (Basistransformation) ( ) 15 05 Die lineare

Mehr

Quadratische Matrizen

Quadratische Matrizen Quadratische Matrizen (n n)-matrizen heißen quadratische Die entsprechenden linearen Abbildungen sind laut Definition Endomorphismen des R n (weil f A : R n R n ) Das Produkt von (n n)- Matrizen ist auch

Mehr

Beweis. Bei (a) handelt es sich um eine Umformulierung des ersten Teils von Satz 6.2, während (b) aus dem zweiten Teil des genannten Satzes folgt.

Beweis. Bei (a) handelt es sich um eine Umformulierung des ersten Teils von Satz 6.2, während (b) aus dem zweiten Teil des genannten Satzes folgt. 82 Kapitel III: Vektorräume und Lineare Abbildungen Beweis. Bei (a) handelt es sich um eine Umformulierung des ersten Teils von Satz 6.2, während (b) aus dem zweiten Teil des genannten Satzes folgt. Wir

Mehr

2.5 Gauß-Jordan-Verfahren

2.5 Gauß-Jordan-Verfahren 2.5 Gauß-Jordan-Verfahren Definition 2.5.1 Sei A K (m,n). Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 0 in jeder Zeile 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1]

Mehr

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

32 2 Lineare Algebra

32 2 Lineare Algebra 3 Lineare Algebra Definition i Die Vektoren a,, a k R n, k N, heißen linear unabhängig genau dann, wenn für alle λ,, λ k R aus der Eigenschaft λ i a i λ a + + λ k a k folgt λ λ k Anderenfalls heißen die

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2

Mehr