Lineare Algebra 1. Roger Burkhardt
|
|
|
- Joseph Müller
- vor 9 Jahren
- Abrufe
Transkript
1 Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 Roger Burkhardt [email protected] Lineare Algebra 1 1/409
2 Lineare Gleichungssysteme 1 Lineare Gleichungssysteme Roger Burkhardt [email protected] Lineare Algebra 1 2/409
3 Lineare Gleichungssysteme 1 Lineare Gleichungssysteme Einführung Lineare Gleichungen Matrizen Multiplikation einer Matrix mit einem Spaltenvektor Definition Lineare Gleichungsysteme Lösungsverfahren Elementare Zeilenumformungen Zeilenstufenform Rang einer Matrix Lösungsfälle Rang und lineare Gleichungssysteme Gauss scher Algorithmus Gauss scher Algorithmus Gauss-Jordan-Verfahren Roger Burkhardt [email protected] Lineare Algebra 1 3/409
4 Lineare Gleichungssysteme Einführung Lineare Gleichungen Definition Unter einer linearen Gleichung mit den n Unbekannten x 1, x 2,..., x n versteht man eine Bestimmungsgleichung für die n Unbekannten, in welcher die Unbekannten nur linear auftreten. D.h. eine Gleichung der Form: a 1 x 1 + a 2 x a n x n = n a k x k = b (1) k=1 dabei nennt man a 1, a 2,..., a n die Koeffizienten und b den Absolutteil der linearen Gleichung. Roger Burkhardt [email protected] Lineare Algebra 1 4/409
5 Lineare Gleichungssysteme Einführung Beispiel Die Gleichung x 2y + z = 1 ist eine lineare Gleichung mit den drei Unbekannten x, y und z. Aus der Vektorgeometrie wissen wir, dass dies die Koordinatengleichung einer Ebene im dreidimensionalen reellen Raum ist. Bemerkung Unter der Lösungsmenge einer linearen Gleichung versteht man die Menge aller Punkte, die die Gleichung erfüllen. Es versteht sich von selbst, dass die Lösungsmenge einer Gleichung mit n Unbekannten eine Teilmenge des n-dimensionalen Raumes ist. Roger Burkhardt [email protected] Lineare Algebra 1 5/409
6 Lineare Gleichungssysteme Einführung Beispiel Die Lösung der linearen Gleichung aus dem vorigen Beispiel lautet: L = { (x, y, z) R 3 : x 2y + z = 1 } = {(2y z + 1, y, z)} In der zweiten Darstellung beschreiben wir die Lösungspunkte in Abhängigkeit der beiden Variablen y und z. Wir haben also zwei frei wählbare Variablen und sagen deshalb, dass die Dimension des Lösungsraumes zwei ist. In dieser Schreibweise lassen sich einzelne Elemente der Lösungsmenge einfach durch eine Wahl von Werten für y und z beschreiben. Sei z.b. y = 1 und z = 2, so findet man den Lösungspunkt (1, 1, 2). Natürlich hat unsere Lösungsmenge unendlich viele Elemente (alle Punkte auf der Ebene, die durch diese Koordinatengleichung beschrieben wird). Roger Burkhardt [email protected] Lineare Algebra 1 6/409
7 Lineare Gleichungssysteme Einführung Matrizen Definition Eine n m-matrix über K ist eine Anordnung von n m Elementen von K nach dem folgenden Schema: a 11 a 12 a 1m a 21 a 22 a 2m a n1 a n2 a nm Die a ij K nennt man die Koeffizienten der Matrix. Roger Burkhardt [email protected] Lineare Algebra 1 7/409
8 Lineare Gleichungssysteme Einführung Bemerkung Die waagrecht geschriebenen n-tupel ( ) a i1 a i2 a im nennt man die Zeilen und die senkrecht geschriebenen m-tupel a 1j a 2j die Spalten der Matrix. a nj Roger Burkhardt [email protected] Lineare Algebra 1 8/409
9 Lineare Gleichungssysteme Einführung Multiplikation einer Matrix mit einem Spaltenvektor Definition Für x = x 1 x 2 x m Km 1 = K m wird das Produkt Ax K n der Matrix A K n m mit dem Spaltenvektor x definiert durch: a 11 a 12 a m 1m x k=1 a 1 m 1kx k a 21 a 22 a 2m Ax :=..... x 2. = k=1 a 2kx k m a n1 a n2 a nm x k=1 a nkx k m Roger Burkhardt [email protected] Lineare Algebra 1 9/409
10 Lineare Gleichungssysteme Einführung Beispiel Gegeben sei die Matrix A = ( das Produkt dieser Matrix mit dem Spaltenvektor bestimmen: = Ax = ( ) ( ( 3) ). Wir wollen nun ) = ( 7 15 ) Roger Burkhardt [email protected] Lineare Algebra 1 10/409
11 Lineare Gleichungssysteme Definition Lineare Gleichungsysteme Definition Ein System aus m linearen Gleichungen mit n Unbekannten nennt man ein lineares Gleichungssystem. Mit der Matrizenrechnung lässt es sich wie folgt schreiben: a 11 a a 1n a 21 a a 2n Ax = a m1 a m2... a mn x 1 x 2. x n = b 1 b 2. b m = b (2) Roger Burkhardt [email protected] Lineare Algebra 1 11/409
12 Lineare Gleichungssysteme Definition Dabei nennt man die Matrix A = (a ij ) die Koeffizientenmatrix und den Spaltenvektor b = (b i ) die Absolutglieder des Systems. Sind alle Absolutglieder gleich Null, so nennt man das lineare Gleichungssystem homogen, sonst inhomogen. Weiter nennt man die Matrix A b = (a ij b i ) die man aus der Koeffizientenmatrix durch das Anhängen des Spaltenvektors erhält, die erweiterte Koeffizientenmatrix. Roger Burkhardt [email protected] Lineare Algebra 1 12/409
13 Lineare Gleichungssysteme Definition Beispiel Das folgende lineare Gleichungssystem besteht aus vier Gleichungen mit drei Unbekannten und ist, da nicht alle Absolutglieder gleich Null sind, ein inhomogenes System: x y z = x + 2y + 3z = 1 2x + 3y + 4z = 0 3x + 4y + z = 0 4x + y + 2z = Roger Burkhardt [email protected] Lineare Algebra 1 13/409
14 Lineare Gleichungssysteme Definition Bemerkung Die Lösungsmenge eines linearen Gleichungssystems ist die Schnittmenge der Lösungsmengen der linearen Gleichungen aus denen sich das linear Gleichungssystem zusammen setzt. Daraus folgt nun sofort, dass die Lösungsmenge eines linearen Gleichungssystems mit n Unbekannten eine Teilmenge des n-dimensionalen reellen Raumes ist. Roger Burkhardt [email protected] Lineare Algebra 1 14/409
15 Lineare Gleichungssysteme Lösungsverfahren Elementare Zeilenumformungen Theorem Die folgenden Operationen (elementare Zeilenumformungen), angewandt auf ein lineares Gleichungssystem, verändern die Lösungsmenge des Gleichungssystems nicht (sogenannte Äquivalenzumformungen!): Multiplikation einer Gleichung (Zeile der erweiterten Koeffizientenmatrix) mit einer reellen Zahl ungleich Null. Vertauschen zweier Gleichungen (Zeilen der erweiterten Koeffizientenmatrix). Ersetzen der i-ten Gleichung durch eine (nicht triviale) Linearkombination der i-ten und der j-ten Gleichung (Zeilen der erweiterten Koeffizientenmatrix). Roger Burkhardt Lineare Algebra 1 15/409
16 Lineare Gleichungssysteme Lösungsverfahren Bemerkung Die ersten beiden Punkte dürften klar sein. Für den dritten Punkt stelle man sich einmal eine solche Linearkombination vor: s 1 n n a ik x k +s 2 a jk x k = s 1 b i + s 2 b j k=1 } {{ } b i k=1 } {{ } b j Nun gilt sicher, dass alle Lösungen des ursprünglichen Systems diese neue Gleichung auch erfüllen. Fast so einfach lässt sich zeigen, dass keine neuen Lösungspunkte hinzu kommen! Roger Burkhardt [email protected] Lineare Algebra 1 16/409
17 Lineare Gleichungssysteme Lösungsverfahren Die Gültigkeit des letzten Satzes macht man sich nun zu Nutze um lineare Gleichungssysteme zu lösen. Dazu formt man das lineare Gleichungssystem, bzw. die erweiterte Koeffizientenmatrix mit den elementaren Zeilenumformungen so um, dass man die Lösungen einfacher bestimmen kann. Dazu gehen wir in einem ersten Schritt soweit, dass wir unterhalb der Diagonalen alles Nullen erzeugen, d.h. die erweiterte Koeffizientenmatrix in die sogenannte Zeilenstufenform umformen! Roger Burkhardt Lineare Algebra 1 17/409
18 Lineare Gleichungssysteme Lösungsverfahren Zeilenstufenform Definition Man nennt eine Matrix, für die gilt: a ij = 0 a ii 0 a st = 0 eine Matrix in Zeilenstufenform. i > j i < k s > k t (3) Bemerkung Jede Matrix lässt sich (wenn auch Spaltenvertauschungen zugelassen sind) durch elementare Zeilenumformungen in Zeilenstufenform überführen! Roger Burkhardt [email protected] Lineare Algebra 1 18/409
19 Lineare Gleichungssysteme Lösungsverfahren Beispiel Wir wollen die nachfolgende Matrix in Zeilenstufenform überführen: Wir wenden folgende Umformungen an: II 4I II III 7I III III 2II III Roger Burkhardt [email protected] Lineare Algebra 1 19/409
20 Lineare Gleichungssysteme Lösungsverfahren Rang einer Matrix Definition Die Anzahl der linear unabhängigen Zeilen einer Matrix A nennt man den Rang der Matrix A. Man schreibt: rang(a) = rg(a) Theorem Der Rang einer Matrix ist invariant bezüglich elementarer Zeilenumformungen, d.h. der Rang einer durch elementare Zeilenumformungen aus der Matrix A umgeformten Matrix A ist gleich dem Rang der ursprünglichen Matrix A: rg(a) = rg(a ) (4) Roger Burkhardt [email protected] Lineare Algebra 1 20/409
21 Lineare Gleichungssysteme Lösungsverfahren Bemerkung Der Rang einer Matrix in Zeilenstufenform ist gleich der von Null verschiedener Zeilen. Beispiel Wir wollen den Rang der Matrix A = Mit elementaren Zeilenumformungen finden wir: A A II 2I II III 3I III IV 7II IV bestimmen! Roger Burkhardt [email protected] Lineare Algebra 1 21/409
22 Lineare Gleichungssysteme Lösungsverfahren Fortsetzung A A III III 2II IV 7II IV A A IV III IV Nun gilt gemäss letztem Satz: rg(a) = rg(a ) = rg(a ) = rg(a ) Da die Matrix A (in Zeilenstufenform) drei nicht verschwindende Zeilen besitzt, ist ihr Rang gleich 3. Also: rg(a) = rg(a ) = 3 Roger Burkhardt [email protected] Lineare Algebra 1 22/409
23 Lineare Gleichungssysteme Lösungsfälle Rang und lineare Gleichungssysteme Theorem Sei Ax = b ein lineares Gleichungssystem mit n Unbekannten, so gilt: reguläres System rg(a) = n singuläres System rg(a) < n eindeutiger Lösungspunkt (dim(l) = 0) rg(a) = rg(a b) rg(a) < rg(a b) unendlich viele Lösungspunkte dim(l) = n rg(a) leere Lösungsmenge L = {} Roger Burkhardt [email protected] Lineare Algebra 1 23/409
24 Lineare Gleichungssysteme Lösungsfälle Beispiel Wir suchen die Lösung des nachfolgenden Gleichungssystems: x y = z 1 Wir formen dazu die erweiterte Koeffizientenmatrix um: II II 2I III 2I III I I II III III 2II I 7I 2III II 7II + 2III Roger Burkhardt [email protected] Lineare Algebra 1 24/409
25 Lineare Gleichungssysteme Lösungsfälle Fortsetzung I 1 7 I II 1 7 II III 1 7 III Wir erhalten also das äquivalente System: x y = z x y z = Der Rang der Koeffizientenmatrix ist 3, also ist das System regulär und es existiert ein eindeutiger Lösungspunkt. Diesen Lösungspunkt kann aus dem umgeformten System einfach berechnet werden: Roger Burkhardt [email protected] Lineare Algebra 1 25/409
26 Lineare Gleichungssysteme Lösungsfälle Fortsetzung L = {( 4 7, 10 7, 5 )} 7 In der Grafik sind die drei Ebenen eingezeichnet, welche durch die drei linearen Gleichungen beschrieben werden. Diese drei Ebenen schneiden sich im Lösungspunkt des linearen Gleichungssystems! Roger Burkhardt [email protected] Lineare Algebra 1 26/409
27 Lineare Gleichungssysteme Lösungsfälle Beispiel Wir suchen die Lösung des nachfolgenden Gleichungssystems: x y = z 2 Wir formen dazu die erweiterte Koeffizientenmatrix um: II 3II 2I III 4I 3III I 5I + II III III II I 1 15 I II 1 5 II Roger Burkhardt [email protected] Lineare Algebra 1 27/409
28 Lineare Gleichungssysteme Lösungsfälle Fortsetzung Wir erhalten also das äquivalente System: x y = z Der Rang der Koeffizientenmatrix ist 2, also ist das System singulär. Da der Rang der erweiterten Koeffizientenmatrix ebenfalls 2 ist, gibt es unendlich viele Lösungspunkte. Diese Lösungspunkte können aus dem umgeformten System einfach berechnet werden: Roger Burkhardt [email protected] Lineare Algebra 1 28/409
29 Lineare Gleichungssysteme Lösungsfälle Fortsetzung L = {( 15, 25 )} + 2t, t Die drei Ebenen schneiden sich in einer gemeinsamen Schnittgeraden! Es gibt also unendlich viele Lösungspunkte! Roger Burkhardt [email protected] Lineare Algebra 1 29/409
30 Lineare Gleichungssysteme Lösungsfälle Beispiel Wir suchen die Lösung des nachfolgenden Gleichungssystems: x y = z 0 Wir formen dazu die erweiterte Koeffizientenmatrix um: II 2II I III III 2I I 9I II III III II Roger Burkhardt [email protected] Lineare Algebra 1 30/409
31 Lineare Gleichungssysteme Lösungsfälle Fortsetzung Wir erhalten also das äquivalente System: x y = z Der Rang der Koeffizientenmatrix ist 2, also ist das System singulär. Da der Rang der erweiterten Koeffizientenmatrix grösser ist, gibt es eine widersprüchliche Gleichung (0 = 5) und somit hat das System eine leere Lösungsmenge: L = {} Roger Burkhardt [email protected] Lineare Algebra 1 31/409
32 Lineare Gleichungssysteme Lösungsfälle Fortsetzung Die drei Ebenen haben keine gemeinsamen Schnittpunkte! Roger Burkhardt Lineare Algebra 1 32/409
33 Lineare Gleichungssysteme Gauss scher Algorithmus Gauss scher Algorithmus Das in den letzten Beispielen angewandte Verfahren nennt man den Gauss-Jordan Algorithmus. Dabei wird verucht mittels elementarer Zeilenumformungen eine Matrix in Diagonalform zu erzeugen. Bevor wir dieses Verfahren ausführlicher diskutieren, soll hier zuerst der Gauss sche Algorithmus kurz skizziert werden. Das Verfahren nach Gauss formt eine Matrix (z.b. erweiterte Koeffizientenmatrix eines linearen Gleichungssystems) in Zeilenstufenform um. Das Verfahren kann sprachlich folgendermassen als Rezept beschrieben werden: Roger Burkhardt Lineare Algebra 1 33/409
34 Lineare Gleichungssysteme Gauss scher Algorithmus Gauss scher Algorithmus Beginne in der ersten Spalte Finde eine Zeile ohne führende Null. Ist dies nicht die erste Zeile vertausche die erste mit der gefundenen Zeile. Sollte in der ganzen Spalte alles Nullen stehen, so vertausche diese Spalte mit einer anderen (Variablen müssen entsprechend vertauscht werden) oder fahre einfach in der nächsten Spalte weiter (ein Element oberhalb der Diagonalen!). Führe mit allen Zeilen unterhalb der Ersten eine Ersetzung der Zeile mittels einer Linearkombination der entsprechenden Zeile und der ersten Zeile durch, so dass in der ersten Spalte eine Null zu stehen kommt. Verfahre analog weiter für die weiteren Spalten, indem spaltenweise unterhalb des Diagonalelements Nullen erzeugt werden. Zum Schluss liegt die Matrix in Zeilenstufenform vor! Roger Burkhardt Lineare Algebra 1 34/409
35 Lineare Gleichungssysteme Gauss scher Algorithmus Beispiel Wir betrachten den Algorithmus an einem Beispiel ausführlich: A = II II 9I Wir starten in der ersten Spalte. Da das Diagonalelement (erste Zeile erste Spalte) ungleich Null ist, können wir in allen Zeilen unter dem Diagonalelement Nullen erzeugen. Roger Burkhardt [email protected] Lineare Algebra 1 35/409
36 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung Für die zweite Zeile verwenden wir die folgende Ersetzung (Linearkombination) II II 9I : A = III III I, IV IV 15I, V V I, VI VI 8I Roger Burkhardt [email protected] Lineare Algebra 1 36/409
37 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung Für die restlichen Zeilen analog III III I, IV IV 15I, V V I und VI VI 8I : A = III II 2III, IV 5II 2IV, V 3II 2V, VI VI II Roger Burkhardt [email protected] Lineare Algebra 1 37/409
38 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung Nun folgt die zweite Spalte. Auch hier ist das Diagonalelement ungleich Null und mittels geeigneter Ersetzungen können die Elemente unterhalb der Diagonalen auf Null gesetzt werden: (III II 2III, IV 5II 2IV, V 3II 2V und VI VI II ): A = IV 11III 5IV, V 21III 5V Roger Burkhardt [email protected] Lineare Algebra 1 38/409
39 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung Weiter mit der dritten Spalte. Auch hier ist das Diagonalelement ungleich Null und mittels geeigneter Ersetzungen können die Elemente unterhalb der Diagonalen auf Null gesetzt werden (IV 11III 5IV, V 21III 5V ): A = V 4VI + V Roger Burkhardt [email protected] Lineare Algebra 1 39/409
40 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung In der vierten Spalte ist nun das Diagonalelement gleich Null und zudem auch alle Elemente unterhalb dem Diagonalelement. Nun fahren wir in der fünften Spalte weiter (aber mit der vierten Zeile). (V 4VI + V ): A = II 1 2 II, III 1 5 III, IV 1 4 IV Roger Burkhardt [email protected] Lineare Algebra 1 40/409
41 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung Nun können unterhalb der Diagonalen keine weiteren Nullen erzeugt werden. Zum Abschluss werden die führenden Werte jeder Zeile meistens noch normiert: A = Roger Burkhardt [email protected] Lineare Algebra 1 41/409
42 Lineare Gleichungssysteme Gauss scher Algorithmus Nachdem die erweiterte Koeffizientenmatrix mit dem Gauss schen Algorithmus in Zeilenstufenform umgeformt wurde, kann die Lösungsmenge von unten her berechnet werden! Bei einem regulären System kann die hinterste Variable aus der untersten Zeile bestimmt werden. Diesen Wert kann dann in der zweituntersten Zeile eingesetzt werden um die nächste Variable zu berechnen, usw. Bei einem singulären System mit einer unendlichen Lösungsmenge verfährt man analog, doch werden für die Nullzeilen Parameter für die entsprechenden Unbekannten eingesetzt. Es folgen zwei Beispiele: Roger Burkhardt Lineare Algebra 1 42/409
43 Lineare Gleichungssysteme Gauss scher Algorithmus Beispiel Bestimme die Lösungsmenge des Systems: x y = z Nun kann aus der dritten Gleichung (6z = 1) die Lösung für z berechnet werden: z = 1 6. Diesen Wert setzen wir nun in der zweiten Gleichung ein (2y = 1) und berechnen y: y = 1 3. Und nun noch den Wert für x: x = = 1 6. Roger Burkhardt [email protected] Lineare Algebra 1 43/409
44 Lineare Gleichungssysteme Gauss scher Algorithmus Beispiel Bestimme die Lösungsmenge des Systems: x y = z Roger Burkhardt [email protected] Lineare Algebra 1 44/409
45 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung Da wir eine Nullzeile haben, gibt es unendlich viele Lösungspunkte. Für die Variablen ohne führenden Wert ungleich Null (hier z), setzt man einen Parameter (frei wählbare Variable) ein. Also z = t. Dies setzen wir nun in der zweiten Gleichung ein (5y 10t = 2) und berechnen y: y = 2+10t 5. Und nun noch die Variable x: 2+10t 1 2t+ 5 x = 3 = 1 5. {( L = 1 5, t )}, t 5 Roger Burkhardt [email protected] Lineare Algebra 1 45/409
46 Lineare Gleichungssysteme Gauss scher Algorithmus Gauss-Jordan-Verfahren Da die Berechnung der Lösungsmenge aus der Zeilenstufenform recht umständlich ist, wird oft mit den elementaren Zeilenumformungen gerade eine Matrix in Diagonalform erzeugt. Dieses Verfahren nennt man Gauss-Jordan-Algorithmus. Betrachten wir dazu noch einmal die vorigen beiden Beispiele: Beispiel Bestimme die Lösungsmenge des Systems: x y = z Roger Burkhardt [email protected] Lineare Algebra 1 46/409
47 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung {( 1 6, 1 3, 1 )} 6 Roger Burkhardt [email protected] Lineare Algebra 1 47/409
48 Lineare Gleichungssysteme Gauss scher Algorithmus Beispiel Bestimme die Lösungsmenge des Systems: x y = z Roger Burkhardt [email protected] Lineare Algebra 1 48/409
49 Lineare Gleichungssysteme Gauss scher Algorithmus Fortsetzung x y z = t 0 {( L = , t, t 5 = )} t t Roger Burkhardt [email protected] Lineare Algebra 1 49/409
50 Matrizenrechnung 2 Matrizenrechnung Roger Burkhardt [email protected] Lineare Algebra 1 50/409
51 Matrizenrechnung 2 Matrizenrechnung Rechenoperationen und Gesetze Addition und Subtraktion Multiplikation einer Matrix mit einem Skalar Matrizenmultiplikation Spezielle Matrizen Quadratische Matrizen Diagonal- und Dreiecksmatrizen Einheitsmatrizen transponierte Matrix symmetrische und schiefsymmetrische Matrizen Matrizen der elementaren Zeilenumformungen reguläre und singuläre Matrizen Inversion Definition Inverse Berechnung der inversen Gesetze für die Inverse Roger Burkhardt [email protected] Lineare Algebra 1 51/409
52 Matrizenrechnung Rechenoperationen und Gesetze Gleichheit von Matrizen Definition Zwei Matrizen A und B sind genau dann gleich, wenn sie die gleiche Dimension haben (also A K n m und B K n m ) und die Matrizen die gleichen Elemente besitzen (also a ij = b ij i n j m). Beispiel ( Gleiche (identische) Matrizen: 2 ) ( = 9 16 ( ) Ungleiche Matrizen: = ) Roger Burkhardt [email protected] Lineare Algebra 1 52/409
53 Matrizenrechnung Rechenoperationen und Gesetze Addition und Subtraktion Definition Sind A und B zwei n m-matrizen, so versteht man unter der Summe A + B (bzw. Differenz A B) die n m-matrix S (bzw. D), welche wie folgt definiert ist: s ij := a ij + b ij (1) bzw. d ij := a ij b ij (2) Beispiel = = Roger Burkhardt [email protected] Lineare Algebra 1 53/409
54 Matrizenrechnung Rechenoperationen und Gesetze Multiplikation einer Matrix mit einem Skalar Definition Sei A K n m eine Matrix und k K ein Skalar, so versteht man unter dem Produkt ka die Matrix: a 11 a 12 a 1m ka 11 ka 12 ka 1m a 21 a 22 a 2m ka := k = ka 21 ka 22 ka 2m a n1 a n2 a nm ka n1 ka n2 ka nm Alle Elemente der Matrix werden also mit dem Skalar multipliziert! Roger Burkhardt [email protected] Lineare Algebra 1 54/409
55 Matrizenrechnung Rechenoperationen und Gesetze Beispiel ( ) = 3 3 ( ) = ( Theorem Für die Addition von Matrizen A, B und C und die Multiplikation einer Matrix mit einem Skalar λ, τ und υ gelten die folgenden Gesetze: (kommutativ) A + B = B + A (assoziativ) A + (B + C) = (A + B) + C = A + B + C (distributiv) λ (A + B) = λa + λb (distributiv) (τ + υ) A = τa + υa ) Roger Burkhardt [email protected] Lineare Algebra 1 55/409
56 Matrizenrechnung Rechenoperationen und Gesetze Linearkombinationen von Matrizen Mit den bisher betrachteten Rechenoperationen können sogenannte Linearkombinationen von Matrizen gebildet werden. D.h. eine Anzahl von gleichdimensionalen Matrizen kann mit Zahlen multipliziert und die Produkte danach aufsummiert werden. Beispiel ( ) ( ) = ( ) ( ) = Diese Fähigkeit werden wir später bei den Vektorräumen gebrauchen! Roger Burkhardt [email protected] Lineare Algebra 1 56/409
57 Matrizenrechnung Rechenoperationen und Gesetze Matrizenmultiplikation Definition Sei A eine n m und B eine m r Matrix, so versteht man unter dem Produkt AB die n r Matrix P mit den Elementen: Bemerkung p ij := m a ik b kj (3) k=1 Das Matrizenprodukt ist nur definiert, wenn die angegebene Dimensionsbedinung erfüllt ist, d.h. der erste Faktor gleich viele Spalten wie der Zweite Zeilen besitzt. Zudem hat die Produktmatrix die gleiche Zeilenzahl wie der erste Faktor und die gleiche Spaltenzahl wie der zweite Faktor. Roger Burkhardt [email protected] Lineare Algebra 1 57/409
58 Matrizenrechnung Rechenoperationen und Gesetze Beispiel Wir suchen das Produkt AB: AB = ( ) = Das Produkt ist definiert, da der Faktor A 3 Spalten und die Matrix B 3 Zeilen hat. Das Produkt hat wie die Matrix A 2 Zeilen und wie die Matrix B 3 Spalten: ( ) = = ( ) Roger Burkhardt [email protected] Lineare Algebra 1 58/409
59 Matrizenrechnung Rechenoperationen und Gesetze Falk sches Schema Die Matrizenmultiplikation lässt sich in einer Tabelle sehr übersichtlich bestimmen. Betrachten wir dazu nocheinmal voriges Beispiel: AB ( ) ( ) In dieser tabellarischen Darstellung ist der Zusammenhang der i-ten Zeile des ersten Faktors mit der j-ten Spalte des zweiten Faktors für die Berechnung des Elements p ij ersichtlich. In der Reihenfolge ihres Auftretens in der Zeile bzw. Spalte werden die Elemente dann multipliziert und die Produkte addiert! Roger Burkhardt [email protected] Lineare Algebra 1 59/409
60 Matrizenrechnung Rechenoperationen und Gesetze Theorem Für die Matrizenmultiplikation gelten die folgenden Gesetze: (assoziativ) A (BC) = (AB) C = ABC (distributiv) A (B + C) = AB + AC Bemerkung Achtung: Die Matrizenmultiplikation ist nicht kommutativ (d.h., die Faktoren sind nicht vertauschbar): AB BA Bsp: ( ) ( ) ( ) AB = 0 1 ( 1 1 BA = 0 0 = 0 0 ) = ) ( ) AB ( Roger Burkhardt [email protected] Lineare Algebra 1 60/409
61 Matrizenrechnung Spezielle Matrizen Quadratische Matrizen Quadratische Matrizen Ein Matrix A mit gleich vielen Zeilen wie Spalten, also A R n n, nennt man eine quadratische Matrix. Bsp: ( ) R 2 2, R 3 3 Roger Burkhardt [email protected] Lineare Algebra 1 61/409
62 Matrizenrechnung Spezielle Matrizen Diagonal- und Dreiecksmatrizen Diagonalmatrizen Eine quadratische n n Matrix A mit Nullen oberhalb und unterhalb der Diagonalen (a ij = 0 i j) nennt man eine Diagonalmatrix. Bsp: ( a a 22 ), a a a 33, a a a a 44 Roger Burkhardt [email protected] Lineare Algebra 1 62/409
63 Matrizenrechnung Spezielle Matrizen obere und untere Dreiecksmatrix Eine quadratische n n Matrix A die unterhalb (bzw. oberhalb) der Diagonalen nur Nullen aufweist, also a ij = 0 i > j (bzw. a ij = 0 i < j), heisst obere (bzw. untere) Dreiecksmatrix. Bsp: Bemerkung a 11 a 12 a 13 0 a 22 a a 33, a a 21 a 22 0 a 31 a 32 a 33 Das Produkt zweier oberer (bzw. unterer) Dreiecksmatrizen ist wieder eine obere (bzw. eine untere) Dreiecksmatrix. Roger Burkhardt [email protected] Lineare Algebra 1 63/409
64 Matrizenrechnung Spezielle Matrizen Einheitsmatrizen Einheitsmatrix Die quadratische n n Matrix E n mit Einsen auf der Diagonalen (a ii = 1) und Nullen oberhalb und unterhalb der Diagonalen (a ij = 0 i j) nennt man eine Einheitsmatrix. E 2 = ( ), E 3 = , E 4 = Theorem Das Produkt mit einer Einheitsmatrix bewirkt keine Veränderung: E n A = A E n = A Roger Burkhardt [email protected] Lineare Algebra 1 64/409
65 Matrizenrechnung Spezielle Matrizen transponierte Matrix Definition Sei A eine n m Matrix, so versteht man unter der zu A transponierten Matrix A T die m n Matrix, welche man durch Spiegelung der Matrix A an ihrer Diagonalen erhält. T a 11 a 12 a 1m a 11 a 21 a n1 a 21 a 22 a 2m a 12 a 22 a n = a n1 a n2 a nm a 1m a 2m a nm Beispiel ( ) T = Roger Burkhardt [email protected] Lineare Algebra 1 65/409
66 Matrizenrechnung Spezielle Matrizen Eigenschaften der Transponierten Theorem Es gilt: ( A T ) T = A (A + B) T = A T + B T (λa) T = λa T (AB) T = B T A T Bemerkung In späteren Kapiteln werden wir die Produkte einer Matrix mit ihrer Transponierten, also AA T und A T A gebrauchen. Hier sei erwähnt, dass unabhängig von der Dimension der Matrix A dieses Produkt immer definiert ist! Roger Burkhardt [email protected] Lineare Algebra 1 66/409
67 Matrizenrechnung Spezielle Matrizen Beispiel Gegeben Sei die Matrix A = Produkte AA T und A T A: AA T = A T A = ( ( ) ( ). Wir suchen die = ) = ( ) Roger Burkhardt [email protected] Lineare Algebra 1 67/409
68 Matrizenrechnung Spezielle Matrizen symmetrische und schiefsymmetrische Matrizen Definition Eine quadratische Matrix A mit der Eigenschaft a ij = a ji i, j nennt man eine symmetrische Matrix (die Elemente oberhalb der Diagonalen sind gleich den entsprechenden Elementen unterhalb der Diagonalen - die Diagonale ist die Spiegelachse!). Gilt a ij = a ji i, j, so nennt man die Matrix schiefsymmetrisch. Beispiel A ist eine symmetrische und B eine schiefsymmetrische Matrix: A = 2 5 4, B = Roger Burkhardt [email protected] Lineare Algebra 1 68/409
69 Matrizenrechnung Spezielle Matrizen Matrizen der elementaren Zeilenumformungen Theorem Sei (Ab) eine erweiterte Koffizientenmatrix und (Ab) die erweiterte Koeffizientenmatrix nach elementaren Zeilenumformungen, so existiert die Matrix Z, mit Z(Ab) = (Ab). Dabei entspricht Z einer leicht abgewandelten Einheitsmatrix. Es gilt: Multiplikation der k-ten Zeile mit der reellen Zahl a 0: z kk = a Vertauschen der k-ten mit der s-ten Zeile: z kk = z ss = 0 und z ks = z sk = 1 Ersetzen der k-ten Zeile durch die Linearkombination a k-te und b s-te Zeile (a 0): z kk = a und z ks = b Roger Burkhardt [email protected] Lineare Algebra 1 69/409
70 Matrizenrechnung Spezielle Matrizen Beispiel Wir suchen die Lösung des nachfolgenden Gleichungssystems: x y = z 1 Wir formen dazu die erweiterte Koeffizientenmatrix um: (Ab) = II II 2I III 2I III Z 1 = (Ab) 1 = Z 1 (Ab) = Roger Burkhardt [email protected] Lineare Algebra 1 70/409
71 Matrizenrechnung Spezielle Matrizen Fortsetzung Z 2 = Z 3 = (Ab) 1 = (Ab) 2 = I I II III III 2II (Ab) 2 = Z 2 (Ab) 1 = I 7I 2III II 7II + 2III (Ab) 3 = Z 3 (Ab) 2 = Roger Burkhardt [email protected] Lineare Algebra 1 71/409
72 Matrizenrechnung Spezielle Matrizen Fortsetzung (Ab) 3 = I 1 7 I II 1 7 II III 1 7 III Z 4 = (Ab) 4 = Z 4 (Ab) 3 = Roger Burkhardt [email protected] Lineare Algebra 1 72/409
73 Matrizenrechnung Spezielle Matrizen Fortsetzung Nun lassen sich diese Faktoren noch zusammenfassen: (Ab) 4 = Z 4 (Ab) 3 = Z 4 Z 3 (Ab) 2 = Z 4 Z 3 Z 2 (Ab) 1 = Z 4 Z 3 Z 2 Z 1 (Ab) = } {{ } Z 4 Z 3 Z 2 Z Die hier gefundene Matrix Z 4 Z 3 Z 2 Z 1 werden wir im nächsten Abschnitt noch genauer untersuchen! Roger Burkhardt [email protected] Lineare Algebra 1 73/409
74 Matrizenrechnung Spezielle Matrizen reguläre und singuläre Matrizen Definition Ein quadratische n n Matrix A nennt man regulär, wenn der Rang der Matrix maximal, also rg(a) = n ist. Andernfalls nennt man die Matrix singulär. Bemerkung Die Koeffizientenmatrix A eines regulären linearen Gleichungssystems Ax = b ist regulär und diejenige eines singulären linearen Gleichungssystem ist dementsprechend singulär. Roger Burkhardt [email protected] Lineare Algebra 1 74/409
75 Matrizenrechnung Inversion Inversion Definition Sei A eine quadratische n n-matrix. Existiert eine Matrix B so, dass gilt: AB = BA = E n so nennt man A invertierbar und die Matrix B das Inverse von A. Für die Inverse schreibt man: B = A 1 Mit der Inversen einer Matrix lässt sich ebenfalls die Lösungsmenge eines (regulären) linearen Gleichungssystem beschreiben. Sei Ax = b ein lineares Gleichungssystem, so kann dieses System beidseitig mit der Inversen (von Links her) multipliziert werden: Ax = b Roger Burkhardt [email protected] Lineare Algebra 1 75/409
76 Matrizenrechnung Inversion A} 1 {{ A} x = A 1 b E n x = A 1 b Fortsetzung Beispiel Matrizen und elementare Zeilenumformung Für das lineare Gleichungssystem fanden wir die Umformung: x y z = Roger Burkhardt [email protected] Lineare Algebra 1 76/409
77 Matrizenrechnung Inversion Fortsetzung (Ab) 4 = Z 4 (Ab) 3 = Z 4 Z 3 (Ab) 2 = Z 4 Z 3 Z 2 (Ab) 1 = Z 4 Z 3 Z 2 Z 1 (Ab) = } {{ } Z 4 Z 3 Z 2 Z Nun entspricht das Produkt der Umformungsmatrizen der Inversen der Koeffizientenmatrix des Systems: A 1 = Z 4 Z 3 Z 2 Z 1 = Roger Burkhardt [email protected] Lineare Algebra 1 77/409
78 Matrizenrechnung Inversion Fortsetzung Die Lösung des Systems erhalten wir durch das Produkt der Inversen mit den Absolutgliedern: 2 x = A 1 b = 4 = 1 Bemerkung Dieses Beispiel zeigt ein Verfahren, um die Inverse einer Matrix zu bestimmen. Da jedoch die einzelnen Zeilenumformungsmatrizen miteinander multipliziert werden müssen, ist es ein sehr aufwendiges Verfahren! Roger Burkhardt [email protected] Lineare Algebra 1 78/409
79 Matrizenrechnung Inversion Berechnung der Inversen Denkt man sich die gesuchte Inverse A 1 = (b ij ) als eine n n Matrix mit den Unbekannten b ij, so entspricht die Gleichung AA 1 = E n dem Problem n 2 Grössen zu bestimmen. Dieses Problem lässt sich nun in n lineare Gleichungssysteme mit jeweils n Unbekannten aufteilen: A b 11 b 21. b n1 = , A b 12 b 22. b n2 = ,..., A b 1n b 2n. b nn = Es ergeben sich also n erweiterte Koeffizientenmatrizen, wobei bei allen die gleiche Koeffizientenmatrix vorliegt: Roger Burkhardt [email protected] Lineare Algebra 1 79/409
80 Matrizenrechnung Inversion A , A ,..., A Da beim Lösen des linearen Gleichungssystems die elementaren Zeilenumformungen nur von der Koeffizientenmatrix abhängen, ergibt sich für alle n Systeme das gleiche Vorgehen und man fasst die n erweiterten Koeffizientenmatrizen zu einer super erweiterten Koeffizientenmatrix zusammen: A = (A E n ) Roger Burkhardt [email protected] Lineare Algebra 1 80/409
81 Matrizenrechnung Inversion Mit elementaren Zeilenumformungen bestimmt man nun (Gauss-Jordan-Verfahren) die Lösungen der n Systeme (vorausgesetzt die Lösungen existieren!): a 11 a 1n..... a n1 a nn b 11 b 1n..... b n1 b nn Inversion mit dem Verfahren nach Gauss-Jordan Noch schematischer kann das Vorgehen folgendermassen dargestellt werden: (A E n ) ( E n A 1 ) Roger Burkhardt [email protected] Lineare Algebra 1 81/409
82 Matrizenrechnung Inversion Beispiel Gesucht sei die Inverse der Matrix A = Es wird die erweiterte Matrix mit A und der Einheitsmatrix gebildet: (A E 4 ) = II 2I II III 4I III IV 2I + IV Roger Burkhardt [email protected] Lineare Algebra 1 82/409
83 Matrizenrechnung Inversion Fortsetzung I 3I 2II III 2II III IV 3IV 4II I I + III II II 2III IV III IV I 2I + IV II II IV Roger Burkhardt [email protected] Lineare Algebra 1 83/409
84 Matrizenrechnung Inversion Fortsetzung Die Inverse existiert somit und lautet: A 1 = I 1 6 I II 1 3 II IV 1 8 IV = ( E 4 A 1 ) Roger Burkhardt [email protected] Lineare Algebra 1 84/409
85 Matrizenrechnung Inversion Gesetze für die Inverse Theorem Für die Matrixinversion gelten die folgenden Gesetzmässigkeiten: A sei regulär A ist invertierbar und die folgenden Rechengesetze: ( A 1 ) 1 = A (AB) 1 = B 1 A 1 ( A T ) 1 = ( A 1 ) T Roger Burkhardt [email protected] Lineare Algebra 1 85/409
86 Determinante 3 Determinante Roger Burkhardt [email protected] Lineare Algebra 1 86/409
87 Determinante 3 Determinante Determinante und lineare Gleichungssysteme Zweireihige Determinante Cramer sche Regel Dreireihige Determinante Determinante und Permutationen Definition Berschnungsmethoden und Gesetze Determinante einer Dreiecksmatrix Elementare Zeilenumformungen und Determinanten Folgerungen und Gesetze Laplace scher Entwicklungssatz Roger Burkhardt [email protected] Lineare Algebra 1 87/409
88 Determinante Determinante und lineare Gleichungssysteme Determinante und lineare Gleichungssysteme Wenn man lineare Gleichungssysteme systematisch durch Elimination der Unbekannten zu lösen versucht, stösst man bei der Rechnung unweigerlich auf gewisse Ausdrücke, die gesetzmässig aus den Koeffizienten des Gleichungssystems gebildet sind und mit deren Hilfe sich die Lösung des Systems theoretisch sehr einfach beschreiben lässt. Diese Ausdrücke nennt man Determinanten. Wir wollen auf diese Art den Determinantenbegriff einführen. Roger Burkhardt Lineare Algebra 1 88/409
89 Determinante Determinante und lineare Gleichungssysteme Wir suchen die Lösung des folgenden allgemeinen linearen Gleichungssystem (2 Gleichungen mit 2 Unbekannten): ( ) ( ) ( ) a11 a 12 x b1 = a 21 a 22 y b 2 Lösung mittels Gauss-Jordan-Verfahren: ( a11 a 12 a 21 a 22 b 1 b 2 ( a11 a 22 a 12 a a 11 a 22 a 12 a 21 ) I a 22 I a 12 II II a 11 II a 21 I b 1a 22 b 2 a 12 a 11 b 2 a 21 b 1 ) Roger Burkhardt [email protected] Lineare Algebra 1 89/409
90 Determinante Determinante und lineare Gleichungssysteme Auf der Diagonalen der Koeffizientenmatrix steht zweimal der gleiche Ausdruck: D = a 11 a 22 a 12 a 21. Unter der Voraussetzung, dass dieser Wert ungleich Null ist, können beide Zeilen durch D geteilt werden: ( ) a 22 b 1 a 12 b 2 a 11 a 22 a 12 a 21 a 11 b 2 a 21 b 1 a 11 a 22 a 12 a21 Es ergibt sich daher die direkte Berechnungsformel (wenn D = a 11 a 22 a 12 a 21 0): { ( )} L = (x, y) R 2 a22 b 1 a 12 b 2 a 11 b 2 a 21 b 1 :, a 11 a 22 a 12 a 21 a 11 a 22 a 12 a 21 Roger Burkhardt [email protected] Lineare Algebra 1 90/409
91 Determinante Determinante und lineare Gleichungssysteme Die beiden Zähler sind analog aufgebaut wie der Nenner D. Wir setzen: D = a 11 a 22 a 12 a 21, D x = b 1 a 22 b 2 a 12, D y = a 11 b 2 a 21 b 1 Diese Ausdrücke sind alle gleich aufgebaut, bestehen aus vier Koeffizienten, die auch als Matrizen geschrieben werden können: ( ) ( ) ( ) a11 a 12 b1 a, 12 a11 b, 1 a 21 a 22 b 2 a 22 a 21 b 2 Nun können die zweireihigen Determinanten (Determinante einer 2 2 Matrix) definiert werden! Roger Burkhardt [email protected] Lineare Algebra 1 91/409
92 Determinante Determinante und lineare Gleichungssysteme Zweireihige Determinante Definition Unter einer zweireihigen Determinante versteht man: ( ) a11 a det(a) := det 12 = a 21 a 22 a 11 a 12 a 21 a 22 = a 11a 22 a 12 a 21 (1) Bemerkung Die zweireihige Determinante einer Matrix ist also gleich der Differenz aus dem Produkt der Elemente auf der Hauptdiagonalen und demjenigen Produkt aus den Elementen der Nebendiagonalen. Roger Burkhardt [email protected] Lineare Algebra 1 92/409
93 Determinante Determinante und lineare Gleichungssysteme Cramer sche Regel Mit Hilfe der Determinante lässt sich die Lösung des linearen Gleichungssystem wie folgt schreiben (Cramer sche Regel): Theorem L = {( Dx D, D )} y = D b 1 a 12 b 2 a 22 a 11 b 1 a 12 b 2 a, 11 a 12 a 21 a 22 a 11 a 12 a 21 a 22 (2) Bemerkung Um die Determinanten im Zähler zu bilden, wird für D x in der Koeffizientenmatrix die erste Spalte durch die Absolutglieder ersetzt, analog die zweite Spalte für D y. Roger Burkhardt [email protected] Lineare Algebra 1 93/409
94 Determinante Determinante und lineare Gleichungssysteme Beispiel Die Lösung des linearen Gleichungssystems ( ) ( ) ( 1 1 x 4 = 2 2 y 0 kann mit Hilfe der Determinanten: D = = (1)(2) ( 2)(1) = 4 D x = = (4)(2) (0)(1) = 8 D y = = (1)(0) ( 2)(4) = 8 ) Roger Burkhardt [email protected] Lineare Algebra 1 94/409
95 Determinante Determinante und lineare Gleichungssysteme Fortsetzung mit der Cramer schen Regel (D 0) berechnet werden: x = D x D = 8 4 = 2; y = D y D = 8 4 = 2 L = { (x, y) R 2 : (2, 2) } Dieses Vorgehen kann nun analog für Gleichungssysteme mit mehr als zwei Unbekannten durchgeführt werden. Hier noch der Fall für ein System mit drei Unbekannten: a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 x y z = b 1 b 2 b 3 Roger Burkhardt [email protected] Lineare Algebra 1 95/409
96 Determinante Determinante und lineare Gleichungssysteme Da die Berechnung hier viel aufwendiger ist, wird nur die Lösung für x berechnet. Wieder mit dem Gauss-Algorithmus (3-te Spalte): a 11 a 12 a 13 b 1 a 21 a 22 a 23 b 2 I a 33 I a 13 III II a a 31 a 32 a 33 b 33 II a 23 III 3 a 11 a 33 a 31 a 13 a 12 a 33 a 32 a 13 0 a 33 b 1 b 3 a 13 a 21 a 33 a 31 a 23 a 22 a 33 a 32 a 23 0 a 33 b 2 b 3 a 23 a 31 a 32 a 33 b 3 Nun können einige Ausdrücke als zweireihige Determinanten geschrieben werden: 11 a 13 a 31 a a 13 a 32 a a 13 b 2 a 33 a 21 a 23 a 31 a 33 a 22 a 23 a 32 a 33 0 b 2 a 23 b 3 a 33 a 31 a 32 a 33 b 3 Roger Burkhardt [email protected] Lineare Algebra 1 96/409
97 Determinante Determinante und lineare Gleichungssysteme Damit die Schreibarbeit einfacher und das Ganze übersichtlicher wird, verwenden wir: Definition Sei A eine quadratische Matrix, dann versteht man unter A ij zum Element a ij die Matrix die man aus A durch Weglassen der i-ten Zeile und j-ten Spalte erhält. A 22 A 21 0 A 12 A 11 0 b 1 a 13 b 2 a 33 b 2 a 23 b 3 a 33 a 31 a 32 a 33 b 3 Roger Burkhardt [email protected] Lineare Algebra 1 97/409
98 Determinante Determinante und lineare Gleichungssysteme Nun kann das Teilsystem aus den ersten beiden Zeilen nach x (und y) aufgelöst werden (unter der Voraussetzung, dass das System regulär ist!): b 1 a 13 b 3 a 33 A 21 b 2 a 23 b 3 a 33 A 11 b 1 a 13 b 3 a 33 A 11 b 2 a 23 b 3 a 33 A 21 x = A = 22 A 21 A 22 A 11 A 21 A 12 A 12 A 11 = (b 1a 33 b 3 a 13 ) A 11 (b 2 a 33 b 3 a 23 ) A 21 (a 11 a 33 a 13 a 31 ) A 11 (a 21 a 33 a 23 a 31 ) A 21 Da Zähler und Nenner gleich aufgebaut sind, wird im weiteren nur noch der Nenner N (Zähler Z) untersucht: Roger Burkhardt [email protected] Lineare Algebra 1 98/409
99 Determinante Determinante und lineare Gleichungssysteme N = (a 11 a 33 a 13 a 31 ) A 11 (a 21 a 33 a 23 a 31 ) A 21 = (a 11 a 33 a 13 a 31 ) (a 22 a 33 a 23 a 32 ) (a 21 a 33 a 23 a 31 ) (a 12 a 33 a 32 a 13 ) = a 11 a 22 a33 2 a 13 a 22 a 31 a 33 a 11 a 23 a 32 a 33 + a 13 a 23 a 31 a 32 a 12 a 21 a a 12 a 23 a 31 a 33 + a 13 a 21 a 32 a 33 a 13 a 23 a 31 a 32 = a 33 (a 11 a 22 a 33 a 13 a 22 a 31 a 11 a 23 a 32 a 12 a 21 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 ) Analog ergibt sich für den Zähler Z: Z = a 33 (b 1 a 22 a 33 a 13 a 22 b 3 b 1 a 23 a 32 a 12 b 2 a 33 + a 12 a 23 b 3 + a 13 b 2 a 32 ) Roger Burkhardt [email protected] Lineare Algebra 1 99/409
100 Determinante Determinante und lineare Gleichungssysteme Dreireihige Determinante Der Bruch für die Lösung x kann noch gekürzt werden: b 1 a 22 a 33 + a 12 a 23 b 3 + a 13 b 2 a 32 a 13 a 22 b 3 a 12 b 2 a 33 b 1 a 23 a 32 a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 a 13 a 22 a 31 a 12 a 21 a 33 a 11 a 23 a 32 Definition Unter einer dreireihigen Determinante versteht man: a 11 a 12 a 13 a 11 a 12 a 13 det(a) := det a 21 a 22 a 23 = a 21 a 22 a 23 a 31 a 32 a 33 a 31 a 32 a 33 (3) = (a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 ) (a 13 a 22 a 31 + a 12 a 21 a 33 + a 11 a 23 a 32 ) Roger Burkhardt [email protected] Lineare Algebra 1 100/409
101 Determinante Determinante und lineare Gleichungssysteme Regel von Sarrus Bemerkung (Regel von Sarrus) Um diese 6 Mehrfachprodukte korrekt zu berechnen und die Vorzeichen richtig einzusetzen arbeitet man oft nach folgendem Prinzip: Die ersten beiden Spalten werden an die Matrix angehängt: a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 a 11 a 12 a 21 a 22 a 31 a 32 Nun werden die drei Produkte entlang der Diagonalen von oben links nach unten rechts positiv genommen und die drei Produkte entlang der Diagonalen von rechts oben nach links unten negativ. Roger Burkhardt [email protected] Lineare Algebra 1 101/409
102 Determinante Determinante und lineare Gleichungssysteme Die Lösung des linearen Gleichungssystem bestimmt man wiederum mit der Cramer schen Regel: b 1 a 12 a 13 a 11 b 1 a 13 x = D b 2 a 22 a 23 x D = b 3 a 32 a 33 ; y = D a 21 b 2 a 23 y a 11 a 12 a 13 D = a 31 b 3 a 33 ; a 11 a 12 a 13 a 21 a 22 a 23 a 21 a 22 a 23 a 31 a 32 a 33 a 31 a 32 a 33 z = D z D = a 11 a 12 b 1 a 21 a 22 b 2 a 31 a 32 b 3 a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 Roger Burkhardt [email protected] Lineare Algebra 1 102/409
103 Determinante Determinante und lineare Gleichungssysteme Bemerkung Auch hier bildet man die Determinanten im Zähler indem man in der Koeffizientenmatrix die entsprechende Spalte durch die Absolutglieder ersetzt! Beispiel x = D x D == x y z = = = Roger Burkhardt [email protected] Lineare Algebra 1 103/409
104 Determinante Determinante und lineare Gleichungssysteme Fortsetzung y = D y D == = 18 = z = D z D == = = L = { (x, y, z) R 3 : (1, 2, 1) } Roger Burkhardt [email protected] Lineare Algebra 1 104/409
105 Determinante Determinante und Permutationen Determinante und Permutationen Nun soll ein Berechnungsverfahren für Determinaten von quadratischen Matrizen beliebiger Dimension hergeleitet werden. Definition Eine n-stellige Permutation ist eine bijektive Abbildung σ : X n X n einer n-elementigen Menge X n auf sich selbst. Bemerkung Eine Permutation ist eine Umordnung der n Elemente der Menge X n. Beispiel Die Umordnung der Elemente σ 1 : (1, 2, 3, 4) (1, 2, 4, 3) ist eine Permutation. Roger Burkhardt [email protected] Lineare Algebra 1 105/409
106 Determinante Determinante und Permutationen Fortsetzung Es gibt mehrere Schreibweisen um eine solche Permutation darzustellen. Eine sehr übersichtliche Art ist die Matrixschreibweise. Hier wird in einer ersten Zeile die Ausgangsposition und in einer zweiten Zeile die Zielanordnung geschrieben. Für das Beispiel ergibt sich also: ( ) σ 1 = Kompakter ist die Tupelschreibweise, wo nur die Zielanordnung angegeben wird: σ 1 = (1, 2, 4, 3). Zudem ist die Permutation eine Abbildung und diese kann folgendermassen beschrieben werden: σ 1 (1) = 1; σ 1 (2) = 2; σ 1 (3) = 4; σ 1 (4) = 3 Roger Burkhardt [email protected] Lineare Algebra 1 106/409
107 Determinante Determinante und Permutationen Beispiel Gesucht seien alle Permutationen der Menge {1, 2, 3}. Es gibt hier 6 verschiedene Permutationen: σ 1 = (1, 2, 3) σ 2 = (1, 3, 2) σ 3 = (2, 1, 3) σ 4 = (2, 3, 1) σ 5 = (3, 1, 2) σ 6 = (3, 2, 1) Jede Permutation lässt sich aus einem Anfangszustand dadurch erreichen, indem man nacheinander immer zwei Elemente vertauscht. Dieses Vertauschen nennt man Transposition. Roger Burkhardt [email protected] Lineare Algebra 1 107/409
108 Determinante Determinante und Permutationen Beispiel Die Permutationen des letzten Beispiels: σ 1 = (1, 2, 3) σ 2 = (1, 3, 2) (1, 2, 3) (1, 3, 2) σ 3 = (2, 1, 3) (1, 2, 3) (2, 1, 3) σ 4 = (2, 3, 1) (1, 2, 3) (2, 1, 3) (2, 3, 1) σ 5 = (3, 1, 2) (1, 2, 3) (1, 3, 2) (3, 1, 2) σ 6 = (3, 2, 1) (1, 2, 3) (3, 2, 1) Eine Permutation heisst gerade, wenn die Permutation mit einer geraden Anzahl von Transpositionen erzeugt werden kann, andernfalls ungerade. Roger Burkhardt [email protected] Lineare Algebra 1 108/409
109 Determinante Determinante und Permutationen Ein elementares Produkt aus einer n n Matrix A ist ein Produkt aus n Elementen der Matrix, wobei keine zwei Elemente in der selben Zeile (Spalte) stehen dürfen. Beispiel Die 3 3 Matrix A besitzt die folgenden elementaren Produkte: b 1 a 12 a 13 a 11 a 22 a 33 a 11 a 23 a 32 b 2 a 22 a 23 a 12 a 21 a 33 a 12 a 23 a 31 b 3 a 32 a 33 a 13 a 21 a 32 a 13 a 32 a 13 Es gibt im obigen Beispiel 6 elementare Produkte. Für eine n n Matrix gibt es n! elementarer Produkte. Diese Produkte können wie folgt mit Hilfe von Permutationen geschrieben werden: a 1σk (1)a 2σk (2)... a nσk (n).dabei ist σ k eine der n! Permutation der Zahlen {1, 2,..., n}. Roger Burkhardt [email protected] Lineare Algebra 1 109/409
110 Determinante Definition Definition Definition Sei A eine quadratische Matrix mit n Zeilen. Unter der Determinante der Matrix A versteht man den Wert: a 11 a 1n a 21 a 2n n! det (A) :=.... = sign (σ. k ) a 1σk (1)a 2σk (2)... a nσk (n) k=1 a n1 a nn (4) Beispiel Anhand der Definition sollen die im vorigen Abschnitt gefundenen Formeln hergeleitet werden: Roger Burkhardt [email protected] Lineare Algebra 1 110/409
111 Determinante Definition Fortsetzung 2 2 Matrix: ( a11 a det 12 a 21 a 22 ) = a 11 a 22 }{{} (1, 2) gerade + ( 1) a 12 a 21 }{{} (2, 1) ungerade = a 11 a 22 a 12 a Matrix: a 11 a 12 a 33 det a 21 a 22 a 23 a 31 a 32 a 33 = a 11 a 22 a 33 }{{} (1, 2, 3) gerade + ( 1) a 11 a 23 a 32 }{{} (1, 3, 2) ungerade + Roger Burkhardt [email protected] Lineare Algebra 1 111/409
112 Determinante Definition Fortsetzung ( 1) a 12 a 21 a 33 }{{} (2, 1, 3) ungerade + a 12 a 23 a 31 }{{} (2, 3, 1) gerade + a 13 a 21 a 32 }{{} (3, 1, 2) gerade + ( 1) a 13 a 22 a 31 }{{} (3, 2, 1) ungerade = a 11 a 22 a 33 a 11 a 23 a 32 a 12 a 21 a 33 +a 12 a 23 a 31 +a 13 a 21 a 32 a 13 a 22 a 31 Die Determinantenberechnung mit Hilfe der Definition wird für grosse Matrizen sehr aufwendig! Da die Anzahl der Permutationen (und somit der Summanden) mit wachsendem n sehr schnell wächst (bei n elementiger Menge ergeben sich n! Permutationen), wird in der Praxis nicht mit diesem Verfahren gearbeitet. Im weiteren sind hier zwei Verfahren beschrieben, welche auch bei grossen Matrizen angewendet werden können. Roger Burkhardt [email protected] Lineare Algebra 1 112/409
113 Determinante Berschnungsmethoden und Gesetze Determinante einer Dreiecksmatrix Das erste Verfahren, welches wir hier betrachten, eignet sich sehr gut für die computerunterstützte Berechnung. Es ähnelt dem Gauss schen Algorithmus und verwendet wie dieser die elementaren Zeilenumformungen. Zuerst ein wichtiger Satz zur Motivierung: Theorem Sei A eine quadratische Dreiecksmatrix, dann ist die Determinante det(a) = A gleich dem Produkt der Diagonalelemente: det(a) = A = n a kk = a 11 a 22 a 33 a nn (5) k=1 Roger Burkhardt [email protected] Lineare Algebra 1 113/409
114 Determinante Berschnungsmethoden und Gesetze Beispiel Wir suchen die Determinante der Matrix: A = det(a) = A = (1)(4)(6) = Dieser Satz ermöglicht es nun, auf einfache Weise die Determinante einer Dreiecksmatrix zu berechnen. Wie sieht es nun mit der Determinante aus, wenn wir mit den elementaren Zeilenumformungen eine beliebige quadratische Matrix in eine gestaffelte Form umwandeln? Die Determinante verändert sich zwar mit den Umformungen, doch sind diese Veränderungen mit nachfolgendem Satz gut fassbar: Roger Burkhardt [email protected] Lineare Algebra 1 114/409
115 Determinante Berschnungsmethoden und Gesetze Elementare Zeilenumformungen und Determinanten Theorem Sei A eine quadratische n n Matrix, so gilt: Sei A die Matrix die durch Multiplikation der i-ten Zeile mit der reellen Zahl k entsteht, so gilt: A = k A Sei A die Matrix die durch Vertauschung der i-ten mit der j-ten Zeile entsteht, so gilt: A = A Sei A die Matrix die durch Ersetzten der i-ten Zeile durch die Linearkombination k mal die i-te Zeile plus s mal die j-te Zeile entsteht, so gilt: A = k A Diese Gesetzte lassen sich mit der Definition mittels Permutationen leicht beweisen! Roger Burkhardt [email protected] Lineare Algebra 1 115/409
116 Determinante Berschnungsmethoden und Gesetze Beispiel det(a) = A = 1 ( 1)( 1) = }{{} II I II IV 4I IV = }{{} III III II IV 7II IV Roger Burkhardt [email protected] Lineare Algebra 1 116/409
117 Determinante Berschnungsmethoden und Gesetze Fortsetzung 1 ( 1)( 1)( 1)( 1) 1 ( 1)( 1)( 1)( 1)(3) Bemerkung = }{{} IV 3IV 22III = 1 3 (1)(1)(3)(4) = 4 Bei dem letzten Beispiel ist der Sachverhalt des letzten Satzes umgekehrt zum tragen gekommen: A = 1 k A Roger Burkhardt [email protected] Lineare Algebra 1 117/409
118 Determinante Berschnungsmethoden und Gesetze Folgerungen und Gesetze Theorem Sei A eine quadratische n n Matrix, so gilt: A regulär det(a) 0 A singulär det(a) = 0 Bemerkung Ein lineares Gleichungssystem ist somit genau dann regulär, wenn det(a) 0 gilt. In diesem Fall kann die Cramer sche Regel zur Berechnung der Lösungsmenge angewendet werden: x i = D i D Roger Burkhardt [email protected] Lineare Algebra 1 118/409
119 Determinante Berschnungsmethoden und Gesetze Fortsetzung Verschwindet die Determinante der Koeffizientenmatrix, so ist das System singulär. Verschwinden auch alle Determinanten D i, so existieren unendlich viele Lösungspunkte, andernfalls ist die Lösungsmenge leer. Im weiteren gelten für Determinanten die folgenden Gesetze: Theorem Seien A und B reguläre n n Matrizen, so gilt: det(ka) = ka = k n A (6) det(ab) = AB = A B (7) det(a 1 ) = A 1 = 1 A (8) Roger Burkhardt [email protected] Lineare Algebra 1 119/409
120 Determinante Berschnungsmethoden und Gesetze Minor Eine weiteres Verfahren liefert der Laplace sche Entwicklungssatz. Für diesen braucht es noch einige Hilfsgrössen: Definition Sei A eine quadratische Matrix, dann versteht man unter dem Minor M ij zum Element a ij die Determinante der Matrix, die sich aus A durch Weglassen der i-ten Zeile und j-ten Spalte ergibt: a 11 a 1,j 1 a 1,j+1 a 1n.... M ij := a i 1,1 a i 1,j 1 a i 1,j+1 a i 1,n a i+1,1 a i+1,j 1 a i+1,j+1 a i+1,n (9).... a n,1 a n,j 1 a n,j+1 a n,n Roger Burkhardt [email protected] Lineare Algebra 1 120/409
121 Determinante Berschnungsmethoden und Gesetze Beispiel Die Matrix A = besitzt die folgenden 9 Minore: M 11 = M 12 = M 13 = M 21 = M 22 = M 23 = M 31 = M 32 = M 33 = Roger Burkhardt [email protected] Lineare Algebra 1 121/409
122 Determinante Berschnungsmethoden und Gesetze Kofaktor Definition Das Produkt aus dem Minor M ij mit dem Vorzeichen ( 1) i+j heisst der Kofaktor C ij des Elements a ij : Bemerkung C ij := ( 1) i+j M ij (10) Die Vorzeichen ergeben sich aus folgendem Schachbrettmuster: Roger Burkhardt [email protected] Lineare Algebra 1 122/409
123 Determinante Berschnungsmethoden und Gesetze Laplace scher Entwicklungssatz Theorem Das Produkt der Elemente einer Zeile (oder einer Spalte) mit den entsprechenden Kofaktoren ist gleich der Determinante einer Matrix: Entwicklung nach der i-ten Zeile: det(a) = A = Entwicklung nach der j-ten Spalte: det(a) = A = n a ik C ik (11) k=1 n a kj C kj (12) k=1 Roger Burkhardt [email protected] Lineare Algebra 1 123/409
124 Determinante Berschnungsmethoden und Gesetze Beispiel Die Determinante von A = entwickelt: det(a) = A = nach der ersten Zeile n a 1k C 1k = a 11 C 11 + a 12 C 12 + a 13 C 13 = k=1 a 11 ( 1) 1+1 M 11 + a 12 ( 1) 1+2 M 12 + a 13 ( 1) 1+3 M 13 = a a 22 a a 32 a 33 a 12 a 21 a 23 a 31 a 33 + a 13 a 21 a 22 a 31 a 32 = = 1(1) 1( 1)+1( 4) = 2 Roger Burkhardt [email protected] Lineare Algebra 1 124/409
125 Determinante Berschnungsmethoden und Gesetze Fortsetzung Nach der dritten Spalte entwickelt: n det(a) = A = a k3 C k3 = a 13 C 13 + a 23 C 23 + a 33 C 33 = k=1 a 13 ( 1) 1+3 M 13 + a 23 ( 1) 2+3 M 12 + a 33 ( 1) 3+3 M 13 = a a 21 a a 31 a 32 a 23 a 11 a 12 a 31 a 33 + a 33 a 11 a 12 a 21 a 22 = = 1( 4)+0(0)+1(2) = 2 Roger Burkhardt [email protected] Lineare Algebra 1 125/409
126 Determinante Berschnungsmethoden und Gesetze Bemerkung Bei dieser rekursiven Berechnung wird die Determinante einer n n Matrix als Summe/Differenz aus n Determinanten von kleineren Matrizen bestimmt. Idealerweise entwickelt man nach einer Zeile bzw. Spalte mit möglichst viele Nullen. Der Entwicklungssatz besagt, dass die Summe der Produkte der Elemente einer beliebigen Matrixzeile (oder Spalte) mit den entsprechenden Kofaktoren immer die Determinante ergibt. Um solche Summen von Produkten genauer zu betrachten bilden wir die Matrix aus den Kofaktoren und transponieren diese: Roger Burkhardt [email protected] Lineare Algebra 1 126/409
127 Determinante Berschnungsmethoden und Gesetze Adjunkte Definition Ist A eine quadratische Matrix, so versteht man unter: C 11 C 12 C 1n C 21 C 22 C 2n adj(a) = C n1 C n2 C nn T (13) die Adjunkte von A (oder auch algebraisches Komplement). Bildet man nun das Produkt der Matrix A mit ihrer Adjunkten, so erhält man eine quadratische Matrix, auf deren Diagonalen immer die Determinante zu stehen kommt (dies sind eben die Summen der Produkte gemäss dem Entwicklungssatz). Roger Burkhardt [email protected] Lineare Algebra 1 127/409
128 Determinante Berschnungsmethoden und Gesetze Zudem ist das Produkt der Matrizen eine Diagonalmatrix, d.h. alle Werte ausserhalb der Diagonalen sind Null! Es gilt somit: Theorem A adj(a) = adj(a) A = A E n (14) Beispiel Die Matrix A des letzten Beispiels besitzt die Adjunkte: adj = Roger Burkhardt [email protected] Lineare Algebra 1 128/409
129 Determinante Berschnungsmethoden und Gesetze Fortsetzung = Das Produkt der Matrix mit ihrer Adjunkten ergibt nun: A adj(a) = = = 2E 3 Roger Burkhardt [email protected] Lineare Algebra 1 129/409
130 Determinante Berschnungsmethoden und Gesetze Inversenberechnung mittels Adjunkte Die Gleichung des letzten Satzes kann (wenn A regulär ist) einfach zu einer Berechnungsformel für die Inverse umgewandelt werden (beidseitiges Multiplizieren mit 1 det(a) A 1 ). Es ergibt sich: Theorem A 1 = 1 adj(a) (15) det(a) Beispiel = 1 adj Roger Burkhardt [email protected] Lineare Algebra 1 130/409
131 Determinante Berschnungsmethoden und Gesetze Fortsetzung = = Bemerkung Für die Berechnung eignet sich das Gauss-Jordan-Verfahren besser, doch hier haben wir zum ersten mal eine direkte Berechnungsformel um die Inverse zu bestimmen! Roger Burkhardt [email protected] Lineare Algebra 1 131/409
132 Vektorräume 4 Vektorräume Roger Burkhardt [email protected] Lineare Algebra 1 132/409
133 Vektorräume 4 Vektorräume Einführung Vektoren und Translationen Linearkombinationen und Gesetze Lineare Unabhängigkeit Definition Vektorraum Untervektorraum Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Lineare Hülle Lineare Unabhängigkeit Basis Dimension Roger Burkhardt [email protected] Lineare Algebra 1 133/409
134 Vektorräume Einführung Vektoren und Translationen Vektoren, wie sie in der Vektorgeometrie verwendet werden, können mittels Translationen definiert werden. Wird ein Gegenstand translativ (d.h. geradlinig und ohne Rotation) von einer Ausgangsposition zu einer Zielposition verschoben, so führen alle Punkte des Gegenstandes die gleiche Bewegung durch. Diese Bewegung kann durch einen Pfeil beschrieben werden. Ein solcher Pfeil, oder eben ein Vektor, hat eine Richtung und eine Länge (Betrag) und ist durch diese beiden Eigenschaften vollständig beschrieben. Roger Burkhardt Lineare Algebra 1 134/409
135 Vektorräume Einführung Für diese Objekte definiert man zwei grundsätzliche Operationen. Dies sind die Addition und die Multiplikation mit einem Skalar (z.b. einer reellen Zahl). Dabei versteht man unter der Summe von zwei Translationen die Translation, welche man erhält, wenn man die beiden Translationen nacheinander ausführt. v w w v Es ist einfach einsichtig, dass diese Operation kommutativ ist, d.h. es kommt nicht darauf an, welche der beiden Translationen als erstes ausgeführt wird. Roger Burkhardt [email protected] Lineare Algebra 1 135/409
136 Vektorräume Einführung Die zweite Grundoperation ist die Multiplikation mit einem Skalar. Diese kann als Streckung/Stauchung der Translation verstanden werden. Dabei wird die Länge aber nicht die Richtung verändert: v kv Wird mit einem negativen Skalar multipliziert, so bewirkt das negative Vorzeichen des Skalars zusätzlich eine Umkehrung der Richtung. Im speziellen bewirkt die Multiplikation mit 1, dass eine Translation gerade in die Gegenrichtung führt (Kehrvektor). Roger Burkhardt [email protected] Lineare Algebra 1 136/409
137 Vektorräume Einführung Linearkombinationen und Gesetze Mit den beiden Operationen können nun Linearkombinationen von Translationen (Vektoren) gebildet werden! Schreiben wir die Translationen als Vektoren, so verstehen wir unter einer Linearkombination der n Vektoren v 1, v 2,..., v n mit den Skalaren a 1, a 2,..., a n den Vektor: a 1 v 1 + a 2 v a n v n = Im weiteren gelten die folgenden Gesetze: n a k v k k=1 Die Addition von Vektoren ist assoziativ und kommutativ: v + ( w + u) = ( v + w) + u = v + w + u v + w = w + v Roger Burkhardt [email protected] Lineare Algebra 1 137/409
138 Vektorräume Einführung Bezüglich der Addition von Vektoren gibt es ein neutrales Element (Nullvektor - Vektor mit der Länge Null), welches zu einem beliebigen Vektor addiert keine Auswirkungen hat: v + 0 = 0 + v = v Zu jedem Vektor gibt es einen Kehrvektor, d.h. zu jedem Vektor existiert ein zweiter Vektor, so dass die Summe dieser beiden Vektoren den Nullvektor ergibt. Sei im weiteren K ein Körper (z.b. die Menge der reellen Zahlen), so gilt für die Multiplikation eines Vektors mit Skalaren aus K das Assoziativgesetz: a (b v) = (ab) v Im weiteren gelten die folgenden beiden Distributivgesetze: a ( v + w) = a v + a w (a + b) v = a v + b v Roger Burkhardt [email protected] Lineare Algebra 1 138/409
139 Vektorräume Einführung Lineare Unabhängigkeit Zudem ist das Produkt eines beliebigen Vektors mit dem Skalar 1 wieder gleich dem Vektor. Diese acht grundlegenden Gesetzte werden wir zu einem späteren Zeitpunkt nocheinmal aufrollen. Im Moment fahren wir mit den Translationen weiter. Die n Vektoren v 1, v 2,..., v n nennt man linear unabhängig, wenn sich keiner der Vektoren als Linearkombination der restlichen Vektoren darstellen lässt. Andernfalls nennt man die Vektoren linear abhängig (bei zwei Vektoren in der Vektorgeometrie spricht man von kollinearen, bei drei Vektoren von komplanaren Vektoren). Roger Burkhardt [email protected] Lineare Algebra 1 139/409
140 Vektorräume Einführung Beispiel Bei einem beliebigen Dreieck mit den Eckpunkten A, B und C können die drei Seiten als Vektoren beschrieben werden. Z.B. a = BC, b = CA und c = AB. Diese drei Vektoren sind linear abhängig, da z.b. der Vektor a als Linearkombination der beiden anderen Vektoren geschrieben werden kann: a = BC = BA + AC = b c b= CA A C c a= b c a= BC c= AB b B Roger Burkhardt [email protected] Lineare Algebra 1 140/409
141 Vektorräume Einführung Wenn man überprüfen muss, ob eine Anzahl von Vektoren linear unabhängig sind, hilft oft die Tatsache, dass der Nullvektor bei linear unabhängigen Vektoren nur mittels einer trivialen Linearkombination beschrieben werden kann (alle Vektoren mit dem Skalar 0 multipliziert), während bei linear abhängigen Vektoren neben der trivialen noch unendlich viele weitere Linearkombination möglich sind. Beispiel Im Dreieck des letzten Beispiels ist der Nullvektor aus den drei Vektoren a, b und c auf viele verschiedene Arten beschreibbar: 0 = 0 a + 0 b + 0 c = 1 a + 1 b + 1 c = 5 a 5 b 5 c = Werden aber nur zwei der drei Vektoren genommen, so existiert nur die triviale Linearkombination: 0 = 0 a + 0 b Roger Burkhardt [email protected] Lineare Algebra 1 141/409
142 Vektorräume Einführung Eine interessante Anwendung der linearen Unabhängigkeit ist der Beweis, dass sich in einem beliebigen Dreieck die Seitenhalbierenden im Verhältnis 1 : 2 teilen: Beispiel Um mit der linearen Unabhängigkeit von Vektoren diesen Satz zu beweisen, muss ein Nullvektor als Linearkombination unabhängiger Vektoren gebildet werden. b= AC C S M D c= AB B A S SA AM = 1 2 c AM MS SA= 0 MS M A Roger Burkhardt [email protected] Lineare Algebra 1 142/409
143 Vektorräume Einführung Fortsetzung Die beiden Seitenvektoren b und c sind linear unabhängig und es gilt (k und s sind Streckungsfaktoren): AM + MS + SA = 1 2 c + k MC + sda = ( 1 2 c + k 1 ) 2 c + b + s ( 12 b 12 ) c = ( k s ) ( b k 2 2) s c = 0 Da nur die triviale Linearkombination unabhängiger Vektoren den Nullvektor erzeugt, müssen die beiden Klammerausdrücke in der letzten Zeile gleich Null sein! Roger Burkhardt [email protected] Lineare Algebra 1 143/409
144 Vektorräume Einführung Fortsetzung Also gilt: Dieses lineare Gleichungssystem: ( k s 2 = k 2 s 2 = ) ( k s ) = ( ) hat die Lösung: k = 1 3 und s = 2 3. Das Verhältnis von k zu s gibt nun das gesuchte Teilungsverhältnis: 1 k s = 3 = 1 2 Die Erkenntnisse der Einführung lassen sich nun verallgemeinern. 2 3 Roger Burkhardt [email protected] Lineare Algebra 1 144/409
145 Vektorräume Definition Definition Vektorraum Definition Ein Vektorraum über einen Körper K ist eine Menge V zusammen mit zwei Operationen: + : V V V : K V V (v, w) v + w (λ, v) λ v für welche die folgenden Bedingungen gelten: Addition von Vektoren: A1: u, v, w V (u + v) + w = u + (v + w) A2: u, v V u + v = v + u A3: 0 V, v V 0 + v = v + 0 = v A4: v V v V v + ( v) = ( v) + v = 0 Roger Burkhardt [email protected] Lineare Algebra 1 145/409
146 Vektorräume Definition Fortsetzung Multiplikation mit einem Skalar: S1: λ, µ K, v V (λµ) v = λ (µv) S2: λ K, v, w V λ (v + w) = λv + λw S3: λ, µ K, v V (λ + µ) v = λv + µv S4: v V 1v = v Das Tripel (V, +, ) aus Menge V und den gegebenen Operationen + und nennt man einen Vektorraum über K. Ist K die Menge der reellen Zahlen, so spricht man von einem reellen Vektorraum. Bemerkung Die Vektoren aus der Vektorgeometrie (Translationen) bilden mit der besprochenen Vektoraddition und der Multiplikation mit einer reellen Zahl ein reellen Vektorraum. Roger Burkhardt [email protected] Lineare Algebra 1 146/409
147 Vektorräume Definition Vektorraum der reellen n-tupel Beispiel Das Tripel aus Menge der reellen n-tupel V = {(x 1, x 2,, x n )} mit x i R und der Vektoraddition: + : V V V (x 1, x 2,, x n ) + (y 1, y 2,, y n ) (x 1 + y 1, x 2 + y 2,, x n + y n ) und der Multiplikation mit einem reellen Skalar: : R V V λ (x 1, x 2,, x n ) (λx 1, λx 2,, λx n ) bilden einen reellen Vektorraum. Roger Burkhardt [email protected] Lineare Algebra 1 147/409
148 Vektorräume Definition Vektorraum der reellen Matrizen Beispiel Das Tripel aus Menge der reellen n m Matrizen V = { x R n m} und der behandelten Matrizenaddition: + : V V V (a ij ) + (b ij ) (a ij + b ij ) und Multiplikation einer Matrix mit einem reellen Skalar: bilden einen reellen Vektorraum. : R V V λ (a ij ) (λa ij ) Roger Burkhardt [email protected] Lineare Algebra 1 148/409
149 Vektorräume Definition Vektorraum der Polynomfunktionen vom Grade n Beispiel Das Tripel aus Menge der reellen Polynomfunktionen V = { p (x) = n k=0 a kx k} mit a k R und den Operationen: + : V V V ( n ) ( n ) ( n ) a k x k + b k x k (a k + b k ) x k k=0 k=0 k=0 : R V V ( n ) ( n ) λ a k x k λa k x k k=0 bilden einen reellen Vektorraum. k=0 Roger Burkhardt [email protected] Lineare Algebra 1 149/409
150 Vektorräume Definition Untervektorraum Sei (V, +, ) ein Vektorraum über K und U eine Teilmenge von V. Nun stellt sich die Frage, ob (U, +, ) mit den Verknüpfungen von V ebenfalls ein Vektorraum ist. Diese Frage beantwortet der nachfolgende Satz: Theorem Sei (V, +, ) ein Vektorraum über K und U eine Teilmenge von V, so nennt man U einen Untervektorraum von V, wenn U bezüglich der Verknüpfungen + und abgeschlossen ist, d.h. u, v U u + v U (1) λ K, v U λv U (2) Natürlich ist (U, +, ) ebenfalls ein Vektorraum! Roger Burkhardt [email protected] Lineare Algebra 1 150/409
151 Vektorräume Definition Beispiel Im Vektorraum der reellen n-tupel bildet die Menge U = {(x, 0, 0,, 0)} einen reellen Untervektorraum, da die Summe zweier beliebiger Elemente aus U wieder in U liegen: (x, 0, 0,, 0) + (y, 0, 0,, 0) = (x + y, 0, 0,, 0) U und die Multiplikation eines Elementes aus U mit einer beliebigen reellen Zahl ebenfalls in U liegt: λ (x, 0, 0,, 0) = (λx, 0, 0,, 0) U Bemerkung Gelten diese beiden Bedingungen, also bekommt man durch Linearkombinationen keine neuen Elemente, so sagt man die Menge ist abgeschlossen bezüglich den gegebenen Operationen. Roger Burkhardt [email protected] Lineare Algebra 1 151/409
152 Vektorräume Definition Beispiel Da die Summe zweier symmetrischer n n Matrizen wieder eine symmetrische Matrix ist und die Multiplikation einer symmetrischen Matrix mit einer reellen Zahl auch wieder symmetrisch ist, ist die Menge der symmetrischen n n Matrizen abgeschlossen bezüglich Matrizenaddition und Multiplikation mit einem Skalar. Daher ist die Menge der symmetrischen n n Matrizen ein Untervektorraum des Vektorraums der quadratischen n n Matrizen. Beispiel Die Summe zweier linearer Funktionen f (x) = mx + b ist wieder eine lineare Funktion und das Produkt einer linearen Funktion mit einer reellen Zahl ist auch wieder eine lineare Funktion. Daher ist die Menge der linearen Funktionen ein Untervektorraum des Vektorraums der reellen Polynomfunktionen n-ten Grades. Roger Burkhardt [email protected] Lineare Algebra 1 152/409
153 Vektorräume Definition Beispiel Die Menge der Tripel U = { (x, y, z) R 3 : x + 2y + 3z = 0 } beschreibt eine Ebene im dreidimensionalen reellen Raum (Vektorraum der reellen Tripel). Die Tripel der Menge U lassen sich z.b. wie folgt beschreiben (y und z sind frei wählbar): (x, y, z) = ( 2y 3z, y, z) Die Summe zweier solcher Tripel ergibt: ( 2y 1 3z 1, y 1, z 1 ) + ( 2y 2 3z 2, y 2, z 2 ) = ( 2 (y 1 + y 2 ) 3 (z 1 + z 2 ), y 1 + y 2, z 1 + z 2 ) U Roger Burkhardt [email protected] Lineare Algebra 1 153/409
154 Vektorräume Definition Fortsetzung Ein Element von U mit einer reellen Zahl multipliziert ergibt wieder ein Element aus U: λ ( 2y 2 3z 2, y 2, z 2 ) = ( 2λy 3λz, λy, λz) U Somit ist diese Ebene ein Untervektorraum des reellen dreidimensinalen Vektorraums. Roger Burkhardt [email protected] Lineare Algebra 1 154/409
155 Vektorräume Definition Die Ebene des letzten Beispiels beinhaltet den Ursprung des dreidimensionalen Raums (Tripel (0, 0, 0) ist der Nullvektor des Vektorraums). Wird die Ebene U parallel verschoben, so ist die neue Menge von Tripeln kein Untervektorraum mehr: Beispiel Die Menge der Tripel U = { (x, y, z) R 3 : ( 2y 3z + 5, y, z) } (alle Punkte von U werden um 5 in x-richtung verschoben!) bilden keinen Untervektorraum. Es gilt bei der Summe: Bemerkung ( 2y 1 3z 1 + 5, y 1, z 1 ) + ( 2y 2 3z 2 + 5, y 2, z 2 ) = ( 2 (y 1 + y 2 ) 3 (z 1 + z 2 ) + 10, y 1 + y 2, z 1 + z 2 ) / U Der Nullvektor ist immer Element des Untervektorraums! Roger Burkhardt [email protected] Lineare Algebra 1 155/409
156 Vektorräume Definition Bemerkung Sei U ein Untervektorraum des Vektorraums V und sei a ein Element von V, welches nicht im Untervektorraum liegt, so ist U = {v V : v = u + a, u U} kein Untervektorraum. Eine solche Menge nennt man einen affinen Raum (werden wir nicht speziell behandeln!). Roger Burkhardt [email protected] Lineare Algebra 1 156/409
157 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Lineare Hülle Eine Möglichkeit einen Untervektorraum zu bilden, ist mit gegebenen Vektoren alle möglichen Linearkombinationen zu bilden: Definition Seien v 1, v 2,..., v n Vektoren eines Vektorraums V. Die Menge L (v 1, v 2,..., v n ) := {λ 1 v 1 + λ 2 v λ n v n } V (3) aller Linearkombinationen von v 1, v 2,..., v n heisst die lineare Hülle des n-tupels (v 1, v 2,..., v n ) von Vektoren. Theorem Die lineare Hülle ist immer ein Untervektorraum. Roger Burkhardt [email protected] Lineare Algebra 1 157/409
158 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Beispiel Betrachten wir den dreidimensionalen rellen Vektorraum R 3 = {(x, y, z)}. Die lineare Hülle des Vektors v = (1, 1, 1) ist der Untervektorraum U = {λ (1, 1, 1)} = {(λ, λ, λ)}. Dies sind alle Punkte auf einer Geraden im R 3 : Roger Burkhardt [email protected] Lineare Algebra 1 158/409
159 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Die lineare Hülle der Vektoren v 1 = (1, 1, 1) und v 2 = (0, 0, 1) ist der Untervektorraum U = {λ 1 (1, 1, 1) + λ 2 (0, 0, 1)} = {(λ 1, λ 1, λ 1 + λ 2 )}. Dies sind alle Punkte auf einer Ebenen im R 3 : Roger Burkhardt [email protected] Lineare Algebra 1 159/409
160 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Die lineare Hülle der Vektoren v 1 = (1, 1, 1), v 2 = (0, 0, 1) und v 3 = (1, 1, 0) ist der Untervektorraum U = {λ 1 (1, 1, 1) + λ 2 (0, 0, 1) + λ 3 (1, 1, 1)} = {(λ 1 + λ 3, λ 1 + λ 3, λ 1 + λ 2 )}. Dies sind alle Punkte auf der vorigen Ebene: Roger Burkhardt [email protected] Lineare Algebra 1 160/409
161 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Mit der linearen Hülle können also aus einer kleinen Anzahl von Vektoren viele neue Vektoren gebildet werden! Dieser Sachverhalt wird uns im weiteren beschäftigen. Zudem haben wir in den letzten beiden Beispielen gesehen, dass mit unterschiedlichen Vektoren (oder auch mit einer unterschiedlichen Anzahl von Vektoren) die gleichen (Unter)-Vektoräume erzeugt werden können. Diese Tatsache ist sehr störend, da sie keine eindeutige Beschreibungsmöglichkeit der Vektoren des (Unter)-Vektorraums bewirkt. Um hier weiter zu kommen, brauchen wir nun wieder den Begriff der linearen Unabhängigkeit aus der Einführung! Roger Burkhardt Lineare Algebra 1 161/409
162 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Lineare Unabhängigkeit Definition Die n Vektoren v 1, v 2,..., v n des Vektorraums V nennt man linear unabhängig, wenn sich keiner der Vektoren als Linearkombination der restlichen Vektoren darstellen lässt. Andernfalls nennt man die Vektoren linear abhängig. Theorem Die n Vektoren v 1, v 2,..., v n des Vektorraums V sind genau dann linear unabhängig, wenn der Nullvektor des Vektorraums nur mit einer trivialen Linearkombination gebildet werden kann: n λ k v k = λ 1 v 1 + λ 2 v λ n v n = 0 λ k = 0 k=1 Roger Burkhardt [email protected] Lineare Algebra 1 162/409
163 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Beispiel Es soll gezeigt werden, dass die drei Vektoren v 1 = (1, 1, 1), v 2 = (0, 0, 1) und v 3 = (1, 1, 0) des Vektorraums der reellen Tripel linear abhängig sind. Dazu stellt man den Nullvektor als Linearkombination der drei Vektoren dar: λ 1 v 1 + λ 2 v 2 + λ 3 v 3 = λ 1 (1, 1, 1) + λ 2 (0, 0, 1) + λ 3 (1, 1, 0) = (λ 1 + λ 3, λ 1 + λ 3, λ 1 + λ 2 ) = (0, 0, 0) Dies führt zum folgenden linearen Gleichungssystem: λ λ 2 = λ 3 0 Roger Burkhardt [email protected] Lineare Algebra 1 163/409
164 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Dieses System besitzt neben der trivialen Nulllösung noch unendlich viele weitere Lösungen: λ λ 2 = λ 3 0 L = { (λ 1, λ 2, λ 3 ) R 3 : ( λ 3, λ 3, λ 3 ) } Die Lösung eingesetzt, zeigt nun, dass es unendlich viele Linearkombinationen gibt: λ 3 v 1 + λ 3 v 2 + λ 3 v 3 = 0 }{{} z.b. v 1 + v 2 + v 3 = 0 Roger Burkhardt [email protected] Lineare Algebra 1 164/409
165 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Diese letzte Gleichung kann nach einem der drei Vektoren aufgelöst werden. Für v 3 gilt: v 3 = v 1 v 2 Der Vektor v 3 lässt sich somit als Linearkombination der anderen beiden Vektoren schreiben! Diese Erkenntnis haben wir auch bei den letzten beiden Beispielen zur linearen Hülle erhalten. Die Hinzunahme des dritten Vektors hat auf die linearen Hülle keinen Einfluss gehabt: L (v 1, v 2 ) = L (v 1, v 2, v 3 ) Roger Burkhardt [email protected] Lineare Algebra 1 165/409
166 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Beispiel Es soll gezeigt werden, dass die drei Polynome p 1 = 1, p 2 = 1 + x und p 3 = 1 + x + x 2 des Vektorraums der Polynome linear unabhängig sind. Dazu stellt man den Nullvektor (Nullpolynom p 0 = 0) als Linearkombination der drei Funktionen dar: λ 1 p 1 + λ 2 p 2 + λ 3 p 3 = λ 1 (1) + λ 2 (1 + x) + λ 3 ( 1 + x + x 2 ) = (λ 1 + λ 2 + λ 3 ) + (λ 2 + λ 3 ) x + (λ 3 ) x 2 = 0 = 0 + 0x + 0x 2 Dies führt zum folgenden linearen Gleichungssystem: λ λ 2 = λ 3 0 Da dieses System regulär ist besitzt es nur die triviale Nulllösung! Roger Burkhardt [email protected] Lineare Algebra 1 166/409
167 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Basis Linear unabhängige Vektoren besitzen die wichtige Eigenschaft: Theorem Seien die Vektoren v 1, v 2,..., v n linear unabängig, so lässt sich jeder Vektor im Vektorraum der linearen Hülle dieser Vektoren eindeutig als Linearkombination dieser Vektoren darstellen. Daher definiert man denn Begriff der Basis: Definition Sei V ein Vektorraum über K. Die Menge der n Vektoren {v 1, v 2,..., v n } V heisst eine Basis von V, wenn die Vektoren linear unabhängig sind und die lineare Hülle der Vektoren den ganzen Vektorraum aufspannen. Roger Burkhardt [email protected] Lineare Algebra 1 167/409
168 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Beispiel Betrachten wir die Translationen in einem reellen zwei- bzw. dreidimensionalen Raum mit einem kartesischen Koordinatensystem: y R 2 z R e y 1 1 e x x 2 1 e z 1 e x ey 1 2 y x Die Translationen mit der Länge 1 entlang den Koordinatenachsen bilden eine Basis der Vektorräume: Roger Burkhardt [email protected] Lineare Algebra 1 168/409
169 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung B R 2 = { e x, e y }, B R 3 = { e x, e y, e z } Nun lässt sich eine beliebige Translation eindeutig als Linearkombination dieser Basisvektoren beschreiben: y a=k x e x k y e y k y e y e y 1 e y e x e x k x e x x Roger Burkhardt [email protected] Lineare Algebra 1 169/409
170 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Anstelle dieser aufwendigen Schreibweise in Form einer Linearkombination a = k x e x + k y e y verwendet man meistens die Komponentenschreibweise, wobei in einem Spaltenvektor (oder auch Zeilenvektor) die Koeffizienten der Linearkombination angegeben werden: ( ) kx a = k x e x + k y e y = Bemerkung Die in diesem Beispiel verwendete Basis ist die Standardbasis und man nennt diese auch die kanonische Basis! k y Roger Burkhardt [email protected] Lineare Algebra 1 170/409
171 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Beispiel Wir wollen zeigen, dass die drei Translationen b 1 = b 2 = und b 3 = , eine Basis des R 3 bilden. Dazu muss gezeigt werden, dass diese drei Translationen linear unabängig sind und sie den ganzen Vektorraum aufspannen. Dies kann in einem Schritt durchgeführt werden. Wir stellen dazu einen beliebigen Vektor als Linearkombination der gegebenen Vektoren dar: v = x y z = k 1 b1 + k 2 b2 + k 3 b3 Roger Burkhardt [email protected] Lineare Algebra 1 171/409
172 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Dies führt auf ein lineares Gleichungssystem mit den drei Unbekannten k 1,k 2 und k 3 (und den Parametren x, y und z): k k k 3 k 1 k 2 k = = Mit dem Gauss-Jordan-Verfahren bekommt man: k k 2 = k 3 x y z 2x+y+z 7 4x+5y 2z 7 5x+y+z 7 x y z Roger Burkhardt [email protected] Lineare Algebra 1 172/409
173 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Das lineare Gleichungssystem ist somit regulär und hat (unabhängig von den Parameterwerten) eine eindeutige, einelementige Lösungsmenge. Daher kann auch der Nullvektor (x = y = z = 0) nur auf eine Art (triviale Linearkombination) dargestellt werden und die Vektoren sind daher linear unabhängig! Zudem können für die Parameter beliebige Werte eingesetzt werden und somit spannen die drei gegebenen Vektoren auch den gesamten Raum auf! Gilt z.b. x = y = z = 1, so findet man für diesen Vektor die folgenden Koeffizienten: k 1 k 2 k 3 = 2x+y+z 7 4x+5y 2z 7 5x+y+z 7 = = Roger Burkhardt [email protected] Lineare Algebra 1 173/409
174 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Also gilt: = Beispiel Im Vektorraum der Polynome höchstens 4-ten Grades betrachten wir die Polynome (Legendre-Polynome): P 3 = 1 2 P 0 = 1, P 1 = x, P 2 = 1 2 ( 5x 3 3x ), P 4 = 1 8 ( 3x 2 1 ) ( 35x 4 30x ) Roger Burkhardt [email protected] Lineare Algebra 1 174/409
175 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung Es soll gezeigt werden, dass diese Polynome eine Basis des Vektorraums bilden. Das Vorgehen ist analog zum letzten Beispiel - es wird ein allgemeines Polynom des Vektorraums als Linearkombination der gegebenen Vektoren gebildet: a 0 + a 1 x + a 2 x 2 + a 3 x 3 + a 4 x 4 = k 0 P 0 + k 1 P 1 + k 2 P 2 + k 3 P 3 + k 4 P 4 = (k k k 4)+(k k 3)x +( 3 2 k k 4)x k 3x k 4x 4 Koeffizientenvergleich führt auf das Gleichungssystem: Roger Burkhardt [email protected] Lineare Algebra 1 175/409
176 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Fortsetzung k 0 k 1 k 2 k 3 k 4 = Dieses System ist regulär und besitzt die eindeutige Lösung: k 0 a a a 4 k 1 k 2 k 3 = a a3 2 3 a a a 3 8 k 4 35 a 4 Die Polynome sind linear unabhängig und spannen den Vektorraum auf und bilden daher eine Basis. Roger Burkhardt [email protected] Lineare Algebra 1 176/409 a 0 a 1 a 2 a 3 a 4
177 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Dimension In der Regel hat ein Vektorraum unendlich viele verschiedene Basen. Es gilt jedoch: Theorem Sind {v 1, v 2,..., v n } und {w 1, w 2,..., w m } Basen eines Vektorraums, so sind die beiden Basen gleichmächtig. Daher definiert man: Definition Unter der Dimension dim(v) eines Vektorraums V versteht man die Anzahl der Vektoren einer Basis. Besitzt ein Vektorraum eine endliche Basis {v 1, v 2,..., v n }, spricht man von einem endlich dimensionalen Vektorraum (dim(v) = n). Andernfalls spricht man von einem unendlich dimensionalen Vektorraum (dim(v) = ). Roger Burkhardt [email protected] Lineare Algebra 1 177/409
178 Vektorräume Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Beispiel Die Vektorräume der Translationen in den zwei- und dreidimensionalen reellen Räumen sind zwei- bzw. dreidimensional. Beispiel Für den Vektorraum der n m Matrizen gilt: dim ( R n m) = nm. Beispiel Der Vektorraum der Polynome ist unendlich dimensional. Eine mögliche Basis ist: B = { 1, x, x 2, x 3,... }. Roger Burkhardt [email protected] Lineare Algebra 1 178/409
179 Euklid sche Vektorräume 5 Euklid sche Vektorräume Roger Burkhardt [email protected] Lineare Algebra 1 179/409
180 Euklid sche Vektorräume 5 Euklid sche Vektorräume Skalarprodukte Einführung Definition Standardskalarprodukt Norm und Winkel Definition Orthogonale Vektoren Orthogonale Zerlegungen Orthonormale Basen Projektion Orthogonale Zerlegung Orthonormalisierung Matrizenräume Definition Dimensionssatz Normalensystem Roger Burkhardt [email protected] Lineare Algebra 1 180/409
181 b a Lineare Algebra 1 Euklid sche Vektorräume Skalarprodukte Einführung Bisher konnten wir in den Vektorräumen noch keine Längen und Winkel berechnen. Dazu reichen die Vektorraumdaten nicht aus, der Vektorraum muss mit einer Zusatzstruktur ausgestattet werden. Diese zusätzliche Struktur wird mit dem Skalarprodukt eingeführt. Betrachten wir dazu wieder die Situation bei der Vektorgeometrie. Seien a und b zwei Translationen, so versteht man unter dem Skalarprodukt a b dieser beiden Translationen die reelle Zahl aus Produkt der Länge des ersten Vektors ( a ) mal Länge der Projektion des zweiten auf den ersten Vektor ( b a = b cos (α)): b a Roger Burkhardt [email protected] Lineare Algebra 1 181/409
182 Euklid sche Vektorräume Skalarprodukte a b := a b a = a b cos (α) Ein solches Skalarprodukt liefert uns drei sehr grundlegende Prinzipien: Mittels Skalarprodukt kann die Länge (Betrag) eines Vektors berechnet (bzw. definiert) werden: a = a a Mittels Skalarprodukt kann der Winkel zwischen zwei Vektoren berechnet (bzw. definiert) werden: cos (α) = a b a b Mittels Skalarprodukt können insbesondere rechte Winkel definiert werden! Da der Kosinus eines rechten Winkels Null ist, ist das Skalarprodukt rechtwinklig (normal) zueinanderstehender Vektoren gleich Null. Roger Burkhardt [email protected] Lineare Algebra 1 182/409
183 Euklid sche Vektorräume Skalarprodukte Definition Diese Definition aus der Vektorgeometrie wird nun auf allgemeine Vektorräume erweitert: Definition Sei V ein reeller Vektorraum. Ein Skalarprodukt in V ist eine Abbildung V V R, (u, v) u v mit den folgenden drei Eigenschaften: Bilinearität, dass heisst, die beiden Abbildungen für die einzelnen Operanden sind linear: V R, u u v V R, v u v (1) Roger Burkhardt [email protected] Lineare Algebra 1 183/409
184 Euklid sche Vektorräume Skalarprodukte Euklid sche Vektorräume Definition (Fortsetzung) Die Abbildung ist kommutativ: u v = v u (2) Positive Definitheit: u u 0 (3) Definition Ein reeller Vektorraum mit Skalarprodukt nennt man einen Euklid schen Vektorraum. Roger Burkhardt [email protected] Lineare Algebra 1 184/409
185 Euklid sche Vektorräume Skalarprodukte Das in der Einführung besprochene Skalarprodukt aus der Vektorgeometrie erfüllt diese drei Eigenschaften. Die zweite und dritte Eigenschaft sind einfach zu zeigen: a b = a b cos (α) = b a cos ( α) = b a a a = a a cos (0) = a 2 0 Die erste Eigenschaft beschreibt in etwa das Distributivgesetz. Es muss folgendes gelten: Linear im ersten Argument (Faktor) (k 1 a 1 + k 2 a 2 ) b = k 1 a 1 b + k 2 a 2 b und linear im zweiten Argument (Faktor): ) a (k 1b1 + k 2b2 = k 1 a b 1 + k 2 a b 2 Da das Kommutativgesetz gilt, muss die Linearität nur für einen der Faktoren gezeigt werden! Wir zeigen es für den zweiten Faktor (ohne Skalare). Roger Burkhardt [email protected] Lineare Algebra 1 185/409
186 Euklid sche Vektorräume Skalarprodukte In der Skizze sieht man, wie sich die beiden Flächen aufaddieren: A 1 = a b 1 = a b 1 cos (α1 ) A 2 = a b 2 = a b 2 cos (α2 ) ( A ges = a b1 + b ) 2 = a b 1 + b 2 cos (αges ) = A 1 + A 2 b 2 b= b 1 b 2 a 2 A 2 b 1 a ges 1 A 1 A 2 Roger Burkhardt [email protected] Lineare Algebra 1 186/409
187 Euklid sche Vektorräume Skalarprodukte Standardskalarprodukt Aus den Gesetzen für das Skalarprodukt lässt sich für die Vektorgeometrie einfach die Berechnung in Komponenten herleiten. Seien a und b Vektoren aus dem R 3 mit der kanonischen Basis. Die Vektoren lassen sich mit dieser Basis in Komponentendarstellung beschreiben: a = a x a y a z = a x e x +a y e y +a z e z, b = b x b y b z = b x e x +b y e y +b z e z Das Skalarprodukt a b lässt sich nun mit den Gesetzen auseinander nehmen: a x b x a b = a y a z b y b z = (a x e x + a y e y + a z e z ) (b x e x + b y e y + b z e z ) Roger Burkhardt [email protected] Lineare Algebra 1 187/409
188 Euklid sche Vektorräume Skalarprodukte = a x b x e x e x +a x b y e x e y +a x b z e x e z +a y b x e y e x +a y b y e y e y + a y b z e y e z + a z b x e z e x + a z b y e z e y + a z b z e z e z Wegen den Zwischenwinkeln bei den Basisvektoren gilt: e x e x = e y e y = e z e z = 1 e x e y = e x e z = e y e z =... = 0 Also gilt für das Standardskalarprodukt: Standardskalarprodukt in Komponenten a x b x a b = a y a z b y b z = a x b x + a y b y + a z b z (4) Roger Burkhardt [email protected] Lineare Algebra 1 188/409
189 Euklid sche Vektorräume Skalarprodukte Weitere Skalarprodukte: R n Für den reellen Vektorraum der reellen n-tupel (a 1, a 2,..., a n ) ist das Skalarprodukt meist folgendermassen definiert: (a 1, a 2,..., a n ) (b 1, b 2,..., b n ) := Raum der Polynome n a k b k = a 1 b a n b n k=1 Im reellen Vektorraum der Polynome mit reellen Koeffizienten wird das Skalarprodukt meist folgendermassen definiert: p(x) q(x) = 1 x= 1 p(x)q(x)dx Roger Burkhardt [email protected] Lineare Algebra 1 189/409
190 Euklid sche Vektorräume Norm und Winkel Norm und Winkel Analog der Vektorgeometrie kann in einem euklid schen Vektorraum der Betrag und der Winkel definiert werden: Definition In einem reellen Vektorraum mit Skalarprodukt versteht man unter dem Betrag eines Vektors v die Grösse: v := v v (5) dem Zwischenwinkel der Vektoren u, v die Grösse: ( ) u v (u, v) := acos u v (6) Roger Burkhardt [email protected] Lineare Algebra 1 190/409
191 Euklid sche Vektorräume Norm und Winkel Beispiel Die Seitenlängen und Innenwinkel des Dreiecks A(1, 1, 1), B(2, 3, 4) und C( 1, 4, 3) sollen berechnet werden. Mit den Ortsvektoren zu den Eckpunkten: r A = 1 1 1, r B = 2 3 4, r C = lassen sich die Verbindungsvektoren bestimmen: a = BC = r C r B = = 1 7 Roger Burkhardt [email protected] Lineare Algebra 1 191/409
192 Euklid sche Vektorräume Norm und Winkel Fortsetzung b = CA = ra r C = 2 3 4, c = AB = r B r A = Die Seitenlängen entsprechen den Beträgen der Seitenvektoren: a = a = 3 3 a a = 1 1 = b = b = = 29, c = c = = Roger Burkhardt [email protected] Lineare Algebra 1 192/409
193 Euklid sche Vektorräume Norm und Winkel Fortsetzung Für die Innenwinkel gilt weiter: ( ) ( α = AB, AC = c, ) b = acos c b c = b ( ) β = BC, BA = ( a, c) = ( ) ( ) γ = CA, CB = b, a = Beispiel Im Vektorraum der Polynome soll der Abstand zwischen den Polynomen p 1 (x) = 1 und p 2 (x) = x bestimmt werden: Roger Burkhardt [email protected] Lineare Algebra 1 193/409
194 Euklid sche Vektorräume Norm und Winkel Fortsetzung Analog der Vektorgeometrie ist der Abstand gleich dem Betrag des Verbindungsvektors (Differenz aus End- und Anfangspunkt). Das Differenzpolynom lautet: dp(x) = p 2 (x) p 1 (x) = x 1. Den Betrag berechnet man mittels dem Skalarprodukt des Vektorraums, also: 1 dp(x) = dp(x) dp(x) = dp 2 (x)dx x= 1 = 1 (x 1) 2 dx = x= 1 x = x 2 + x (x 2 2x + 1) 2dx x= = 3 1 Roger Burkhardt [email protected] Lineare Algebra 1 194/409
195 Euklid sche Vektorräume Norm und Winkel Aus der Winkeldefinition folgt unmittelbar: Orthogonale Vektoren Stehen zwei Vektoren rechtwinklig zueinander, so wird das Skalarprodukt dieser Vektoren gleich Null. Anstelle von rechtwinklig spricht man oft auch von normal oder orthogonal. Beispiel Gesucht sei ein Vektor v R 3, welcherrechtwinklig auf den beiden 1 1 Vektoren a = 1 und b = steht und die Länge Eins hat. Für den gesuchten Vektor macht man einen allgemeinen v x Ansatz: v = v y mit den drei Unbekannten v x, v y und v z. v z Roger Burkhardt [email protected] Lineare Algebra 1 195/409
196 Euklid sche Vektorräume Norm und Winkel Fortsetzung Um die drei Unbekannten zu bestimmen braucht es drei Gleichungen: Betrag ist Eins: v v = vx 2 + vy 2 + vz 2 = 1 Normal zu a: a v = v x + v y = 0 Normal zu b: b v = v x + 2v z = 0 Löst man in der zweiten und dritten Gleichung nach v y (v y = v x ) und v z (v z = 1 2 v x) auf und setzt dies in der ersten Gleichung ein, so erhält man: ( ) vx 2 + ( v x ) v x = 9 4 v x 2 = 1 v x = ± 2 3 Roger Burkhardt [email protected] Lineare Algebra 1 196/409
197 Euklid sche Vektorräume Norm und Winkel Fortsetzung Es gibt also zwei Vektoren, welche die Forderung erfüllen: v 1 = 2 3 3, v 2 = Auch in anderen euklid schen Vektorräumen gibt es orthogonale Vektoren: Beispiel Im Vektorraum der Polynomfunktionen, stehen die Legendre-Polynome orthogonal zueinander! Wir zeigen dies für die beiden Polynome P 3 = 1 ( 2 5x 3 3x ) und P 4 = 1 ( 8 35x 4 30x ). Roger Burkhardt [email protected] Lineare Algebra 1 197/409
198 Euklid sche Vektorräume Norm und Winkel Fortsetzung Die Polynome sind orthogonal, wenn das entsprechnde Skalaprodukt Null ergibt: = = = x= 1 1 x= 1 ( 175x 8 P 3 P 4 = 1 x= 1 P 3 P 4 dx 1 ( 5x 3 3x ) 1 ( 35x 4 30x ) dx ( 175x 7 255x x 3 9x ) dx x x 4 4 9x 2 ) 1 = Roger Burkhardt [email protected] Lineare Algebra 1 198/409
199 Euklid sche Vektorräume Orthogonale Zerlegungen Orthonormale Basen Im letzten Abschnitt haben wir gesehen, das in einem euklid schen Vektorraum orthogonale Vektoren definiert sind. Für die Beschreibung der Vektoren in einem Vektorraum eignet sich eine Basis mit solchen Vektoren sehr gut. Daher definieren wir: Definition Eine Basis B = {b 1, b 2,..., b n } eines euklid schen Vektorraums V nennt man eine orthonormale Basis, wenn: Jeder Basisvektor den Betrag 1 hat: k {1, 2,..., n} b k = 1 Beliebige zwei Basisvektoren stehen orthogonal zueinander: k, p {1, 2,..., n}, k p b k b p = 0 Roger Burkhardt [email protected] Lineare Algebra 1 199/409
200 Euklid sche Vektorräume Orthogonale Zerlegungen Beispiel Die kanonische Basis B = { e x, e y, e z } ist für den dreidimensionalen Vektorraum (der Vektorgeometrie) eine orthonormale Basis! Beispiel Neben der kanonischen Basis besitzt der dreidimensionale Vektorraum noch unendlich viele weitere orthonormale Basen. Eine davon ist: 1 B = , , Roger Burkhardt [email protected] Lineare Algebra 1 200/409
201 Euklid sche Vektorräume Orthogonale Zerlegungen Projektion Sehr häufig werden Projektionen gebraucht. Erläutern wir den Begriff mit Hilfe der Vektorgeometrie. Seien a und b linear unabhängige Vektoren, so versteht man unter der Projektion des Vektors b auf den Vektor a die Länge des Schattens, welcher der Vektor b auf den Vektor a wirft, wenn der Lichteinfall rechtwinklig zum Vektor a ist: b a b a Roger Burkhardt [email protected] Lineare Algebra 1 201/409
202 Euklid sche Vektorräume Orthogonale Zerlegungen Projektion Die Projektionslänge von b auf a ist gleich: b a = b a = 1 a a b (7) Die Formel wird besonders einfach, wenn auf ein Vektor mit Länge Eins projeziert wird: b ea = b e a. Nun kann ein beliebiger Vektor b (eindeutig) in eine Summe zerlegt werden, wobei der eine Anteil parallel zum Vektor a verläuft und der zweite Anteil normal dazu: b= b tan b norm bnorm = b b tan b tan = b a e a e a Dieser Sachverhalt lässt sich folgendermassen formulieren: Roger Burkhardt [email protected] Lineare Algebra 1 202/409
203 Euklid sche Vektorräume Orthogonale Zerlegungen Orthogonale Zerlegung Theorem Sei V ein euklid scher Vektorraum und B = {b 1, b 2,..., b n } eine orthonormale Basis von V, so lässt sich jeder beliebige Vektor v V wie folgt schreiben: v = n (v b k )b k = (v b 1 )b 1 + (v b 2 )b (v b n )b n (8) k=1 Beispiel Ein Massenpunkt m befinde sich auf der Oberfläche einer Kugel. Die Gewichtskraft G soll in einem beliebigen Punkt in eine normale und eine tangentiale Komponente zerlegt werden. Roger Burkhardt [email protected] Lineare Algebra 1 203/409
204 Euklid sche Vektorräume Orthogonale Zerlegungen Fortsetzung Mit der orthonormalen Basis: b n = ( cos(α) sin(α) ) (, b sin(α) t = cos(α) ) lässt sich die Kraftzerlegung einfach durchführen! y G n G G t b = cos n sin b t = G= 0 mg sin cos G x = 0 t mg sin sin cos cos =mg cos sin cos G = 0 n mg cos sin cos sin = mg sin cos sin Roger Burkhardt [email protected] Lineare Algebra 1 204/409
205 Euklid sche Vektorräume Orthogonale Zerlegungen Orthonormalisierung Zerlegungen und Projektionen lassen sich mit orthonormalen Vektoren / Basen sehr einfach ausführen. Doch meist haben wir keine orthonormale Vektoren und die Frage ist, wie wir solche Vektoren finden können. Betrachten wir ein mögliches Vorgehen anhand einem Beispiel aus der Vektorgeometrie. Im dreidimensionalen reellen Raum seien die beiden Vektoren a = und b = gegeben. Die lineare Hülle dieser Vektoren ist der Unterraum U R 3 und die beiden Vektoren bilden eine Basis dieses Unterraums. In einem ersten Schritt wollen wir für diesen Unterraum eine orthonormale Basis entwickeln. Roger Burkhardt [email protected] Lineare Algebra 1 205/409
206 Euklid sche Vektorräume Orthogonale Zerlegungen Dazu wandeln wir die gegebene Basis in die neue gesuchte Basis um. In einem ersten Schritt sucht man zwei orthogonale Vektoren in diesem Unterraum und danach werden diese normiert. Ausgehend vom Vektor a wird der zweite Vektor zerlegt in eine Komponente in Richtung von a und eine dazu rechtwinklige Komponente: b a = 1 a 2 ( b a ) a = b n = b b a = = 1 3 Normierung liefert dann eine orthonormale Basis: = Roger Burkhardt [email protected] Lineare Algebra 1 206/409
207 Euklid sche Vektorräume Orthogonale Zerlegungen o 1 = 1 b ba = 1 a , o 2 = 1 b bn = 1 n z b U b n b a y x a Roger Burkhardt [email protected] Lineare Algebra 1 207/409
208 Euklid sche Vektorräume Orthogonale Zerlegungen Wird nun der dritte Vektor c = hinzugenommen ( a, b und c bilden eine Basis des R 3 ) so können wir die gefundene Basis nach einem analogen Prinzip erweitern. Wir Zerlegen dazu den neuen Vektor in eine Summe eines Vektors im Unterraum c U und eine normal dazu stehende Komponente c n : z c c n b U c U y x a Roger Burkhardt [email protected] Lineare Algebra 1 208/409
209 Euklid sche Vektorräume Orthogonale Zerlegungen Es gilt nun sicher: c = c U + c n = ( c o 1 ) o 1 + ( c o 2 ) o }{{} 2 + ( c o 3 ) o }{{} 3 c U Dabei ist der Vektor o 3 der noch zu bestimmende dritte Vektor der gesuchten orthonormalen Basis. Aber aus der Formel lässt sich einerseits c U bestimmen und damit auch c n : c U = c n = c c U = = = 3 7 c n Roger Burkhardt [email protected] Lineare Algebra 1 209/409
210 Euklid sche Vektorräume Orthogonale Zerlegungen Der Vektor c n steht nun normal zum Untervektorraum U und daher auch normal zu den beiden orthonormalen Basisvektoren o 1 und o 2 des Unterraums. Um nun eine orthonormale Basis des dreidimensionalen Raumes zu bekommen, muss dieser dritte Vektor noch normiert werden: o 3 = 1 c n c n = In diesem Sinne könnte man in einem höher dimensionalen Raum weiterfahren! Roger Burkhardt [email protected] Lineare Algebra 1 210/409
211 Euklid sche Vektorräume Orthogonale Zerlegungen Gram-Schmidt-Verfahren Man kann jede Basis in eine orthonormale Basis umwandeln. Ein Verfahren dazu liefert das Gram-Schmidt sche Orthonormalisierungsverfahren: Theorem Ist B 1 = {v 1, v 2, v 3,..., v n } eine Basis des euklid schen Vektorraums V, so wird durch die Rekursionsformel: w 1 = v 1 v 1, w i+1 = v i+1 i k=1 (v i+1 w k ) w k v i+1 i (9) k=1 (v i+1 w k ) w k die Menge B 2 = {w 1, w 2, w 3,..., w n } eine orthonormale Basis dieses Vektorraums. Roger Burkhardt [email protected] Lineare Algebra 1 211/409
212 Euklid sche Vektorräume Orthogonale Zerlegungen Lineare Regression I Als Beispiel der Orthonormalisierung betrachten wir ein grösseres Beispiel. Gegeben seien die Daten einer Messreiehe {(x 1, y 1 ), (x 2, y 2 ),..., (x n, y n )} aus n Messungen. Zudem sei bekannt, dass die Messdaten einem linearen Zusammenhang y = mx + b unterliegen (z.b. wurden über einem ohmschen Widerstand der Strom I und Spannung U gemessen - hier gilt das ohmsche Gesetz U = RI ). In der Regel liegen die n Werte jedoch nicht auf einer Geraden, da sich bei Messungen Fehler einschleichen: y y n y 1 x1 x2 x3 xn x Roger Burkhardt [email protected] Lineare Algebra 1 212/409
213 Euklid sche Vektorräume Orthogonale Zerlegungen Ziel ist es nun, eine Gerade so zu bestimmen, dass sie die gegebenen Messwerte gut beschreibt. Die Bedeutung von diesem gut kann auf verschiedene Arten interpretiert werden. Wir lassen es zum jetzige Zeitpunkt noch offen. Unter der Annahme, dass alle Messpunkte auf einer Geraden liegen, können durch das Einsetzen zweier Punkte in einem allgemeinen Ansatz (y = mx + b) für die gesuchte Gerade die beiden Parameter berechnet werden. Z.B. durch Einsetzen der Messpunkte (x 1, y 1 ) und (x 2, y 2 ) findet man für die Gerade: y 1 = mx 1 + b y 2 = mx 2 + b Das lineare Gleichungssystem in Matrizenschreibweise: ( ) ( ) ( ) x1 1 m y1 = x 2 1 b y 2 Roger Burkhardt [email protected] Lineare Algebra 1 213/409
214 Euklid sche Vektorräume Orthogonale Zerlegungen Mit der Cramer schen Regel die Parameter bestimmen: D = x 1 1 x 2 1 = x 1 x 2 D m = y 1 1 y 2 1 = y 1 y 2 D b = x 1 y 1 x 2 y 2 = x 1y 2 x 2 y 1 m = D m D = y 1 y 2 x 1 x 2 b = D b D = x 1y 2 x 2 y 1 x 1 x 2 Roger Burkhardt [email protected] Lineare Algebra 1 214/409
215 Euklid sche Vektorräume Orthogonale Zerlegungen y = mx + b = y 1 y 2 x 1 x 2 x + x 1y 2 x 2 y 1 x 1 x 2 Setzen wir aber mehr als zwei Punkte im Ansatz ein, so erhalten wir ein überbestimmtes lineares Gleichungssystem aus n Gleichungen mit 2 Unbekannten: x 1 1 x 2 1 x 3 1 : : x n 1 ( m b ) = Dieses System ist nur lösbar, wenn alle Punkte auf einer Geraden liegen. Andernfalls ist das System widersprüchlich (leere Lösungsmenge). y 1 y 2 y 3 : y n Roger Burkhardt [email protected] Lineare Algebra 1 215/409
216 Euklid sche Vektorräume Orthogonale Zerlegungen Nun wechseln wir in einen n-dimensionalen reellen Raum (reelle n-tupel) und interpretieren das lineare Gleichungssystem als Vektorgleichung in diesem Raum: X T = m x 1 x 2 : x n x 1 x 2 : x n, Y T = + b 1 1 : 1 y 1 y 2 : y n =, E T = mx T + be T = Y T y 1 y 2 : y n 1 1 : 1 Roger Burkhardt [email protected] Lineare Algebra 1 216/409
217 Euklid sche Vektorräume Orthogonale Zerlegungen Y Y E ( X E) L, X Y L, ( X E ) Da der Vektor Y nicht in der linearen Hülle der beiden Vektoren X und E liegt, ist die Vektorgleichung nicht lösbar! Die lineare Hülle L (X, E) beinhaltet jedoch alle Vektoren Y, mit möglichen Messwerten für die Messgrösse y, so dass die Vektorgleichung lösbar wird und die Messwerte aus X und Y auf einer Geraden liegen. Roger Burkhardt [email protected] Lineare Algebra 1 217/409
218 Euklid sche Vektorräume Orthogonale Zerlegungen Die Idee für das weitere Vorgehen ist nun die Messwerte so anzupassen, dass die Messwerte auf der Geraden liegen. Welchen Vektor aus der linearen Hülle soll nun gewählt werden? Sei nun Y L (X, E) so beschreibt der Vektor Y T = Y T ( Y ) T = y 1 y 2 : y n y 1 y 2 : y n = y 1 y 1 y 2 y 2 : y n y n die Abweichungen zwischen Messwerten und den Punkten auf der Geraden! y y n y 1 y ' 3 = y3 y3 x1 x2 x3 xn x Roger Burkhardt [email protected] Lineare Algebra 1 218/409
219 Euklid sche Vektorräume Orthogonale Zerlegungen Nun können wir auch etwas über die Bedeutung des gut aus der Aufgabenstellung aussagen. Wir wollen die Gerade so in die Messwerte einpassen, dass der Fehlervektor minimale Länge aufweist! Minimale Länge hat der Fehlervektor Y, wenn er normal zur linearen Hülle steht (wir werden die gleichen Überlegungen bei Abstandsproblemen in der Vektorgeometrie anwenden - in der Analysis löst man das Problem der linearen Regression dadurch, dass die Summe der Fehlerquadrate minimiert wird!): Y R = Y Y ( X E) L, Y L, ( X E ) Roger Burkhardt [email protected] Lineare Algebra 1 219/409
220 Euklid sche Vektorräume Orthogonale Zerlegungen Um den Vektor Y in die lineare Hülle zu projezieren bestimmen wir von der linearen Hülle eine orthonormale Basis. Beginnen wir mit der Normierung von E: B 1 = E E Nun bestimmen wir die Projektion von X auf B 1 : X B1 = (X B 1 ) B 1 Und die Brechnung des zweiten Basisvektors: B 2 = X X B 1 X X B1 Jetzt können wir den Y Vektor in die Summe Y = Y L(X,E) + Y zerlegen: Y L(X,E) = (Y B 1 ) B 1 + (Y B 2 ) B 2 Y = Y Y L(X,E) Roger Burkhardt [email protected] Lineare Algebra 1 220/409
221 Euklid sche Vektorräume Orthogonale Zerlegungen Die Vektorgleichung mx T + be T = YL(X T,E) und somit auch das lineare Gleichungssystem x 1 1 x 2 1 ( ) x 3 1 m = Y : : b L(X T,E) x n 1 ist nun lösbar und liefert die gesuchten Parameterwerte m und b für die gesuchte Gerade. Betrachten wir das Verfahren an einem Zahlenbeispiel. Wir suchen die Gerade für die folgende Messreihe: x y Wir haben also die folgenden 6-Tupel: X = (1, 2, 3, 4, 5, 6), Y = (1, 3, 4, 6, 7, 9) Roger Burkhardt [email protected] Lineare Algebra 1 221/409
222 Euklid sche Vektorräume Orthogonale Zerlegungen Die Punkte im Ansatz eingesetzt liefert die Vektorgleichung: m b = Als nächstes bestimmen wir von der linearen Hülle L (X, E) die orthonormale Basis: B 1 = E E = (1, 1, 1, 1, 1, 1) 6 Roger Burkhardt [email protected] Lineare Algebra 1 222/409
223 Euklid sche Vektorräume Orthogonale Zerlegungen B 2 = X (X B 1) B 1 ( 5, 3, 1, 1, 3, 5) = X (X B 1 ) B 1 70 Nun können wir den Y Vektor zerlegen: Y L(X,E) = (Y B 1 ) B 1 + (Y B 2 ) B 2 = (40, 94, 148, 202, 256, 310) 35 ( 5, 11, 8, 8, 11, 5) Y = Y Y L(X,E) = 35 Das nun lösbare lineare Gleichungssystem lautet: ( X T, E T ) ( m b ) = Y L(X,E) Roger Burkhardt [email protected] Lineare Algebra 1 223/409
224 Euklid sche Vektorräume Orthogonale Zerlegungen ( m b ) = Die Lösung mit dem Gauss schen Algorithmus: Roger Burkhardt [email protected] Lineare Algebra 1 224/409
225 Euklid sche Vektorräume Orthogonale Zerlegungen m = 54 35, b = 2 5 y = x 2 5 Roger Burkhardt [email protected] Lineare Algebra 1 225/409
226 Euklid sche Vektorräume Matrizenräume Matrizenräume Im weiteren untersuchen wir drei spezielle Vektorräume, welche bei der Matrizenrechnung auftauchen. Dabei ergeben sich interessante Beziehungen zwischen dem Lösungsraum und der Koeffizientenmatrix eines linearen Gleichungssystems. Definition Sei A eine n m-matrix. Der von den Zeilenvektoren von A aufgespannte Unterraum von R m nennt man Zeilenraum von A, analog spannen die Spaltenvektoren im R n den Spaltenraum von A auf. Der Lösungsraum des homogenen linearen Gleichungssystems Ax = 0 heisst Nullraum von A und ist ein Unterraum von R m. Roger Burkhardt [email protected] Lineare Algebra 1 226/409
227 Euklid sche Vektorräume Matrizenräume Beispiel Wir wollen die Matrix A = untersuchen: Zeilenraum: Der Zeilenraum von A ist gleich der linearen Hülle der Zeilenvektoren: Z(A) = L ((1, 2, 3), (4, 5, 6), (7, 8, 9)) = { z R 3 : z = λ 1 (1, 2, 3) + λ 2 (4, 5, 6) + λ 3 (7, 8, 9) } = λ 1 λ λ 2 = AT λ λ 3 λ 3 Roger Burkhardt [email protected] Lineare Algebra 1 227/409
228 Euklid sche Vektorräume Matrizenräume Fortsetzung Umformungen (Gauss) zeigen, dass die Dimension des Zeilenraums 2 ist: Eine Basis des Zeilenraums ist somit: B Z(A) = {(1, 0, 1), (0, 1, 2)} Roger Burkhardt [email protected] Lineare Algebra 1 228/409
229 Euklid sche Vektorräume Matrizenräume Fortsetzung Spaltenraum: Der Spaltenraum von A ist gleich der linearen Hülle der Spaltenvektoren: S(A) = L ((1, 4, 7), (2, 5, 8), (3, 6, 9)) = { z R 3 : z = λ 1 (1, 4, 7) + λ 2 (2, 5, 8) + λ 3 (3, 6, 9) } = λ 1 λ λ 2 = A λ λ 3 λ 3 Auch hier kann eine Basis und die Dimension bestimmt werden (arbeiten mit Gauss und der transponierten Matrix!): Roger Burkhardt [email protected] Lineare Algebra 1 229/409
230 Euklid sche Vektorräume Matrizenräume Fortsetzung Eine Basis des zweidimensionalen Spaltenraums ist somit: B S(A) = {(1, 0, 1), (0, 1, 2)} Roger Burkhardt [email protected] Lineare Algebra 1 230/409
231 Euklid sche Vektorräume Matrizenräume Fortsetzung Nullraum: Lösungsraum des homogenen Gleichungssystems Ax = 0: null(a) = { x R 3 : Ax = 0 } Der Nullraum kann durch lösen des linearen Gleichungssystems noch besser beschrieben werden: null(a) = L ((1, 2, 1)) Roger Burkhardt [email protected] Lineare Algebra 1 231/409
232 Euklid sche Vektorräume Matrizenräume Dimensionssatz Für die neu eingeführten Räume gelten folgende Sätze: Theorem Der Zeilemraum Z(A) und der Spaltenraum S(A) haben die gleiche Dimension und es gilt: rg(a) = dim(z(a)) = dim(s(a)) (10) Theorem (Dimensionssatz) Die Summe aus dem Rang einer n m-matrix A und der Dimension des Nullraums (nennt man auch den Defekt def (A)) der Matrix ist gleich der Spaltenzahl: rg(a) + dim(null(a)) = rg(a) + def (A) = m (11) Roger Burkhardt [email protected] Lineare Algebra 1 232/409
233 Euklid sche Vektorräume Matrizenräume Beziehungen zwischen den Matrizenräumen Definition Sei V ein reeller Vektorraum und U ein Unterraum von V. Dann heißt ein Unterraum W komplementär oder ein Komplement zu U, wenn die folgenden Bedingungen gelten: Die beiden Unterräume haben nur den Nullvektor gemeinsam: U W = {0} Jeder Vektor des Vektorraums V lässt sich als Summe von Vektoren aus U und W schreiben: U W = V Man sagt dann auch: V ist die direkte Summe von U und W und schreibt V = U W. Für die Matrizenräume einer Matrix A R n m gilt: Z(A) null(a) = R m und S(A) null(a T ) = R n. Roger Burkhardt [email protected] Lineare Algebra 1 233/409
234 Euklid sche Vektorräume Matrizenräume Bildet man Skalarprodukte aus Vektoren des Zeilenraums Z(A) mit Vektoren aus dem Nullraum null(a), so erhält man 0, d.h. die Vektoren stehen normal zueinander. Wir definieren: Definition Sei U ein Unterraum des euklidischen Vektorraums V. Ein Vektor v aus V heisst orthogonal zu U, wenn er zu jedem Vektor aus U orthogonal ist. Die Menge W aller zu U orthogonalen Vektoren heisst orthogonales Komplement W = U von U. Somit gilt für die Matrizenräume: Theorem Sei A eine n m-matrix, so gilt: Der Nullraum null(a) und der Zeilenraum Z(A) sind orthogonale Komplemente im R m. Roger Burkhardt [email protected] Lineare Algebra 1 234/409
235 Euklid sche Vektorräume Matrizenräume Theorem (Fortsetzung) Der Nullraum null(a T ) und der Spaltenraum S(A) sind orthogonale Komplemente im R n. Die Matrizenräume und die gefundenen Erkenntnisse werden unter anderem bei den linearen Abbildungen verwendet. Hier betrachten wir als Anwendung überbestimmte lineare Gleichungssysteme. Als Beispiel soll nocheinmal die lineare Regression dienen: Gegeben seien also n > 2 Messpunkte und wir suchen eine lineare Funktion y = mx + b. Wenn die Messpunkte im Ansatz eingesetzt werden, erhalten wir n lineare Gleichungen in den beiden Unbekannten m und b. Im letzten Abschnitt haben wir das Problem gelöst, indem wir den Vektor der Messwerte Y in die lineare Hülle L(E, X ) projezierten, und so ein lösbares System erhalten haben. Roger Burkhardt [email protected] Lineare Algebra 1 235/409
236 Euklid sche Vektorräume Matrizenräume Nun kann aber auch gesagt werden, dass der Fehlervektor Y normal auf der linearen Hülle steht. Die lineare Hülle entspricht dem Spaltenraum der Koeffizientenmatrix des linearen Gleichungssystems A(m b) T = Y und der Fehlervektor liegt somit im orthogonalen Komplement des Spaltenraums S(A). Das orthogonale Komplement entspricht nun dem Nullraum der transponierten Koeffizientenmatrix. Y = y 1, y 2,..., y n E= 1,1,...,1 = Y null A T X = x 1,x 2,..., x n S A =L E, X 1 1 A= X T E = x T x x n A = T X E = x 1 x 2 x n Roger Burkhardt [email protected] Lineare Algebra 1 236/409
237 Euklid sche Vektorräume Matrizenräume Das homogene lineare Gleichungssystem A T z = 0 beschreibt aber alle Vektoren z, die normal auf der Hülle des Spaltenraums S(A) stehen. Daher gilt auch: ( ) m ɛ = Y = Y A null(a T ) b ( A T ɛ = A (Y T m A b Umstellen ergibt: ( ) }{{} A T m A b N }{{} z )) = 0 = A T Y }{{} b Nz = b Roger Burkhardt [email protected] Lineare Algebra 1 237/409
238 Euklid sche Vektorräume Matrizenräume Normalensystem Dieses neue lineare Gleichungssystem ist nun regulär und liefert die gesuchten Parameter für die lineare Regression. Es gilt allgemein: Theorem Sei Ax = b ein singuläres, widersprüchliches lineares Gleichungssystem, so nennt man das lineare Gleichungssystem, welches durch beidseitiges multiplizieren mit A T von Links entsteht, das dazugehörige Normalensystem (A T A)x = (A T b). Das Normalensystem ist ein reguläres lineares Gleichungssystem und die eindeutig bestimmte Lösung entspricht der Näherungslösung, so dass der Fehlervektor minimalen Betrag (minimale Summe der Fehlerquadrate) hat. Roger Burkhardt [email protected] Lineare Algebra 1 238/409
239 Euklid sche Vektorräume Matrizenräume Lineare Regression II Wir lösen das Beispiel mit den Messdaten x y mit einem Normalensystem. Das singuläre lineare Gleichungssystem: ( m b ) = Roger Burkhardt [email protected] Lineare Algebra 1 239/409
240 Euklid sche Vektorräume Matrizenräume wird in das entsprechende Normalensystem umgewandelt: ( A T ) ( m b ) = ( m b ( ) = A T ) ( m b ) = ( Das neue reguläre System liefert wieder die selben Lösungen wie die Berechnungen im letzten Abschnitt! ) Roger Burkhardt [email protected] Lineare Algebra 1 240/409
241 Euklid sche Vektorräume Matrizenräume Zum Abschluss dieses Kapitels wollen wir für die lineare Regression noch eine Berechnungsvorschrift herleiten. Seien X = (x 1,..., x n ) und Y = (y 1,..., y n ) die gemessenen Daten so ergibt sich für die Koeffizientenmatrix des Normalensystems: ( x1 x 2 x n ) x 1 1 x x n 1 ( n = k=1 x k 2 n k=1 x k n k=1 x k n ) Analog für die Absolutglieder des Normalensystems: y 1 y 2 ( x1 x 2 x n ). y n = ( n k=1 x ky k n k=1 y k ) Roger Burkhardt [email protected] Lineare Algebra 1 241/409
242 Euklid sche Vektorräume Matrizenräume Mit den Hilfsgrössen: s x = n x k, s y = k=1 n y k, s xx = k=1 n xk 2 = X X, s xy = k=1 n x k y k = X Y k=1 lässt sich das Normalensystem in der folgenden einfachen Form schreiben: ( ) ( ) ( ) sxx s x m sxy = s x n b s y Mit der Cramer schen Regel findet man: D = s xx s x n = ns xx sx 2, D m = s xy s x D b = s xx s x s xy s y s x s y n = s xxs y s xy s x = ns xy s x s y Roger Burkhardt [email protected] Lineare Algebra 1 242/409
243 Euklid sche Vektorräume Matrizenräume m = D m D = ns xy s x s y ns xx s 2 x, b = D b D = s xxs y s xy s x ns xx s 2 x Beispiel Bei einem schiefen Wurf sind folgende Daten gemessen worden: x [m] y = h [m] Aus diesen Daten sollen die Parameter der allgemeinen Wurfparabel möglichst gut bestimmt werden. Die allgemeine Formel des schiefen Wurfes ist aus der Physik bekannt: r (t) = ( x (t) y (t) ) = ( x0 y 0 ) + ( vx0 v y0 ) t ( 0 g ) t 2 Roger Burkhardt [email protected] Lineare Algebra 1 243/409
244 Euklid sche Vektorräume Matrizenräume Fortsetzung Die Parameter sind also: x 0, y 0, v x0, v y0 Wir wollen voraussetzen, dass x 0, die x-koordinate zur Zeit 0 genau bekannt ist: x 0 = 0 Um dieses Beispiel zu lösen, eliminieren wir den Parameter t aus der Gleichung der Wurfparabeln: x = x 0 + v x0 t y = y 0 + v y0 t 1 2 gt2 Roger Burkhardt [email protected] Lineare Algebra 1 244/409
245 Euklid sche Vektorräume Matrizenräume Fortsetzung x x 0 y = y 0 + v y0 1 ( ) x 2 v x0 2 g x0 v x0 ( = x g 1 ) ( vy0 vx0 2 +x g x ) 0 v x0 v 2 b + x0 }{{}}{{} a ( v y0 y 0 x 0 1 ( ) ) 2 2 g x0 c v x0 v x0 }{{} = ax 2 + bx + c Roger Burkhardt [email protected] Lineare Algebra 1 245/409
246 Euklid sche Vektorräume Matrizenräume Fortsetzung Die Messpunkte in der Funktionsvorschrift eingesetzt: x 2 1 x 1 1 a y 1 : : : b = : xn 2 x n 1 c y n a b c = Roger Burkhardt [email protected] Lineare Algebra 1 246/409
247 Euklid sche Vektorräume Matrizenräume Fortsetzung Umwandeln in das entsprechende Normalsystem: Ax = b A T Ax = A T b a b = c Näherungslösung: Roger Burkhardt [email protected] Lineare Algebra 1 247/409
248 Euklid sche Vektorräume Matrizenräume Fortsetzung a b c = y = x x Die gesuchten Parameter lauten somit: a = g 2vx0 2 = v x0 = b = v y0 g x 0 v x0 vx0 2 c = y 0 x 0 v y0 v x = = v y0 = = g ( x0 v x0 ) 2 = y 0 = Roger Burkhardt [email protected] Lineare Algebra 1 248/409
249 Euklid sche Vektorräume Matrizenräume Fortsetzung r (t) = ( ) ( ) t + 1 ( ) t 2 Roger Burkhardt [email protected] Lineare Algebra 1 249/409
250 Vektorgeometrie 6 Vektorgeometrie Roger Burkhardt [email protected] Lineare Algebra 1 250/409
251 Vektorgeometrie 6 Vektorgeometrie Einführung Rechenoperationen Skalarprodukt Vektorprodukt Spatprodukt Gesetzte Geometrie Die Gerade Die Ebene Normalformen Schnittprobleme Abstandsprobleme Hesse sche Normalform Kreis und Kugel Roger Burkhardt [email protected] Lineare Algebra 1 251/409
252 Vektorgeometrie Einführung Der Vektorraum der Vektorgeometrie Als erstes wollen wir den Vektorraum für die Vektorgeometrie definieren. Wir betrachten im weiteren den Vektorraum der reellen n-tupel (geschrieben als Spaltenvektoren) mit der komponentenweisen Addition und der komponentenweise Multiplikation mit einem reellen Skalar: v + w = v x v y v z + λ v = λ v x v y v z w x w y w z = = λv x λv y λv z v x + w x v y + w y v z + w z (1) (2) Roger Burkhardt [email protected] Lineare Algebra 1 252/409
253 Vektorgeometrie Einführung Dabei arbeiten wir normalerweise (ohne weitere Angaben) mit der kanonischen Basis. Darunter versteht man in einem reellen n-dimensionalen Raum die Einheitsvektoren entlang der Koordinatenachsen ( e x, e y,...). Ein Vektor beschreibt somit eine Linearkombination der Basisvektoren. Die Einträge im Vektor nennt man dann die Komponenten des Vektors. v = v x v y v z = v x e x + v y e y + v z e z (3) z ex e z v x v = vy = vxe x + vye y + vz ez vz e y y x Roger Burkhardt [email protected] Lineare Algebra 1 253/409
254 Vektorgeometrie Einführung Punkte des n-dimensionalen reellen Raumes werden im Gegensatz zu den Vektoren als Zeilenvektoren geschrieben. Z.B. A = (1, 2, 3) (oder kurz A(1, 2, 3)) bezeichnet den Punkt A im dreidimensionalen Raum mit den Koordinaten x = 1, y = 2 und z = 3 (Punkte werden normalerweise mit Grossbuchstaben bezeichnet!). Bei den Vektoren benötigen wir zweierlei Vektoren: Ortsvektor: Unter einem Ortsvektor versteht man einen Vektor der vom Ursprung des Koordinatensystems auf einen Punkt (Ort) zeigt: r A = OA = x A y A z A (4) Bemerkung: Beim Punkt spricht man von Koordinaten und beim Vektor von Komponenten! Roger Burkhardt [email protected] Lineare Algebra 1 254/409
255 Vektorgeometrie Einführung Verbindungsvektor: Ein Vektor welcher zwei Punkte verbindet: v = AB x B x A = r B r A = y B y A z B z A (5) Bemerkung: Vektoren sind im Gegensatz zu den Punkten im Raum nicht absolut. D.h. eine vektorielle Grösse ist nur in Bezug auf Länge und Richtung jedoch nicht bezüglich seiner Position im reellen Raum definiert. Sei ABCD ein Quadrat mit den vier Punkten A, B, C und D, so gilt: D A C B AB = DC BC= AD Roger Burkhardt [email protected] Lineare Algebra 1 255/409
256 Vektorgeometrie Rechenoperationen Skalarprodukt Im weiteren betrachten wir noch einige Vektormultiplikationen. Dies sind das Skalarprodukt (n-dimensionaler Raum), das Vektorprodukt (nur im dreidimensionalen Raum) und das Spatprodukt (ebenfalls nur im dreidimensionalen Raum). Definition Unter dem Skalarprodukt zweier n-dimensionaler Vektoren versteht man: a b = a 1 a 2. a n b 1 b 2. b n = a 1b a n b n = n a k b k (6) k=1 Roger Burkhardt [email protected] Lineare Algebra 1 256/409
257 Vektorgeometrie Rechenoperationen Die geometrische Interpretation des Skalarproduktes lässt sich mittels Projektion sehr einfach geben: b b a r 1 r r = b cos ( α ) = r ab a α ba a ab r r r r = a b cos( α ) Mit dem Skalarprodukt kann die Längen- und Winkelmessung im R n definiert werden: Der Betrag eines Vektors a R n ist gleich: a = a a = a a a2 n = n ak 2 (7) k=1 Roger Burkhardt [email protected] Lineare Algebra 1 257/409
258 Vektorgeometrie Rechenoperationen Im R 2 und R 3 ergeben sich die Formeln: ( x y ) = x 2 + y 2, x y z = x 2 + y 2 + z 2 (8) Roger Burkhardt [email protected] Lineare Algebra 1 258/409
259 Vektorgeometrie Rechenoperationen Der Winkel zwischen den beiden Vektoren a und b im R n ist gleich: cos(α) = a b a b (9) Insbesondere gilt: Das Skalarprodukt zweier normal (senkrecht) zueinander stehender Vektoren ist Null. Die Winkel eines Einheitsvektors gegenüber den Koordinatenachsen ist durch die Komponenten des Vektors definiert: Roger Burkhardt [email protected] Lineare Algebra 1 259/409
260 Vektorgeometrie Rechenoperationen Beispiel Eine Masse m befindet sich auf einer um den Winkel α geneigten Ebene. Wir wollen die Gewichtskraft G so in zwei Summanden zerlegen, dass der eine Summand senkrecht und der zweite Summand tangential zur Oberfläche steht. Dazu projezieren wir den Vektor der Gewichtskraft einerseits in tangentiale und normale Richtung zur Oberfläche: Roger Burkhardt [email protected] Lineare Algebra 1 260/409
261 Vektorgeometrie Rechenoperationen Fortsetzung G = G n n 2 n = G = G t t 2 t = ( 0 mg ) ( sin (α) cos (α) 1 ) ( ) mg cos (α) sin (α) = mg cos 2 (α) ( ) ( ) 0 cos (α) mg sin (α) = 1 ( mg cos (α) sin (α) mg sin 2 (α) ) ( sin (α) cos (α) ( cos (α) sin (α) ) ) Roger Burkhardt [email protected] Lineare Algebra 1 261/409
262 Vektorgeometrie Rechenoperationen Vektorprodukt (Kreuzprodukt) Definition Unter dem Vektorprodukt a b der beiden dreidimensionalen Vektoren a und b versteht man den Vektor: a y b y a x b x a y b z a z b y a z b z a y b y = a z b x a x b z = a x b x a z b z a x b y a y b x a z b z a x b x a y b y (10) Roger Burkhardt [email protected] Lineare Algebra 1 262/409
263 Vektorgeometrie Rechenoperationen Das Vektorprodukt besitzt die folgenden drei Eigenschaften: Das Vektorprodukt steht normal (senkrecht) auf den Faktoren: ( a b) a = 0, ( a b) b = 0 Der Betrag des Vektorproduktes entspricht der Fläche des von den beiden Faktoren aufgespannten Parallelogramms: a b = ± a b sin(ϕ) Roger Burkhardt [email protected] Lineare Algebra 1 263/409
264 Vektorgeometrie Rechenoperationen Die drei Vektoren a, b und a b bilden ein Rechtssystem (führt man die Vektoren in dieser Reihenfolge ineinander über, führen sie eine Drehung im gegenuhrzeigersinn durch). Roger Burkhardt [email protected] Lineare Algebra 1 264/409
265 Vektorgeometrie Rechenoperationen Beispiel Wir suchen einen Einheitsvektor dernormal zu den beiden 1 1 Vektoren v = 2, w = 1 R 3 steht. Mit dem 3 0 Vektorprodukt finden wir einen orthogonalen Vektor: n = v w = = Nun noch auf die Länge Eins normieren: e n = 1 n n = = Roger Burkhardt [email protected] Lineare Algebra 1 265/409
266 Vektorgeometrie Rechenoperationen Beispiel Wir suchen den Flächeninhalt des Dreiecks mit den Eckpunkten A (1, 1), B (3, 0) und C (5, 4). Da das Vektorprodukt nur im R 3 definiert ist, fügen wir bei den drei Punkten noch die z-koordinate 0 hinzu. Es gilt nun: F = 1 AB 2 AC = 1 2 ( r B r A ) ( r C r A ) = = = = 10 2 = 5 Roger Burkhardt [email protected] Lineare Algebra 1 266/409
267 Vektorgeometrie Rechenoperationen Spatprodukt Als letztes Produkt führen wir noch das Spatprodukt ein (nur im R 3 definiert): Definition Unter dem Spatprodukt der drei Vektoren a, b und c versteht man die reelle Zahl: [ a, ] ( b, c := a ) b c (11) Führt man dieses Produkt komponentenweise durch, erhält man: a x b x c x [ a, b, c] = a y a z, b y b z, c y c z Roger Burkhardt [email protected] Lineare Algebra 1 267/409
268 Vektorgeometrie Rechenoperationen = a x a y a z b x b y b z c x c y c z = a y b z a z b y (a x b z a z b x ) a x b y a y b x = a x b y c z +a y b z c x +a z b x c y a x b z c y a y b x c z a z b y c x = Theorem c x c y c z a x b x c x a y b y c y a z b z c z Das Spatprodukt der drei Vektoren a, b und c entspricht der Determinante der 3 3 Matrix mit den drei Vektoren als Spalten: [ a, b, c] = det( a, b, c) (12) Roger Burkhardt [email protected] Lineare Algebra 1 268/409
269 Vektorgeometrie Rechenoperationen Das Spatprodukt bestimmt (bis auf das Vorzeichen) den Inhalt des Spats (Parallelepiped): n= a b c b ±h=c n a Dabei ist das Vektorprodukt n = a b ein Vektor der normal auf der Grundfläche des Spats steht. Dabei entspricht die Länge dieses Vektors gerade der Fäche des Parallelogramms (A G = n = a b ). Roger Burkhardt [email protected] Lineare Algebra 1 269/409
270 Vektorgeometrie Rechenoperationen Um den Inhalt des Spats zu bestimmen braucht man noch die Höhe des Spats. Dies entspricht jedoch der Projektionslänge des Vektors c auf den berechneten Normalenvektor - also: h = ± 1 n n c. Für den Inhalt erhält man somit: V = A G h = ± n 1 ( n n c = ± a ) b c Das Resultat wird positiv, wenn die drei Vektoren in der gegebenen Reihenfolge ein Rechtssystem bilden, andernfalls wird das Resultat negativ! Beispiel Gesucht sei das Volumen des Tetraeders mit den vier Eckpunkten A(1, 1, 1), B(2, 0, 2), C(0, 3, 1) und D(5, 1, 5). Roger Burkhardt [email protected] Lineare Algebra 1 270/409
271 Vektorgeometrie Rechenoperationen Fortsetzung: Die drei Verbindungsvektoren: 1 AB = 1, AC = , AD = spannen ein Parallelepiped auf, welches ein 6 mal grösseres Volumen als der Tetraeder besitzt. D AD AC C B A AB Roger Burkhardt [email protected] Lineare Algebra 1 271/409
272 Vektorgeometrie Rechenoperationen Fortsetzung: Also gilt: V = 1 6 [ AB, AC, AD ] = = = 11 3 Neben der Volumenberechnung kann mittels dem Spatprodukt geprüft werden, ob drei Vektoren im R 3 linear unabhängig sind, ein Rechts- oder ein Linkssystem bilden! Roger Burkhardt [email protected] Lineare Algebra 1 272/409
273 Vektorgeometrie Rechenoperationen Gesetze für die Multiplikation Für die Vektormultiplikationen gelten die folgenden Gesetze: Kommutativgesetz für das Skalarprodukt: Das Vektorprodukt ist antikommutativ: a b = b a (13) a b = b a (14) Das Skalarprodukt ist bilinear: (λ 1 a + λ 2 b ) c = λ 1 a c + λ 2 b c (15) ( ) a λ 1 b + λ2 c = λ 1 a b + λ 2 a c (16) Roger Burkhardt [email protected] Lineare Algebra 1 273/409
274 Vektorgeometrie Rechenoperationen Das Vektorprodukt ist bilinear: (λ 1 a + λ 2 b ) c = λ 1 a c + λ 2 b c (17) ( ) a λ 1 b + λ2 c = λ 1 a b + λ 2 a c (18) Vertauschen der Faktoren verändert das Vorzeichen: [ a, ] [ b, c = a, c, ] [ b = c, a, ] b =... (19) Das Spatprodukt ist linear in den Faktoren: ] [ [λ 1 a + λ 2 b, c, d = λ 1 a, c, ] [ ] d + λ 2 b, c, d (20) Roger Burkhardt [email protected] Lineare Algebra 1 274/409
275 Vektorgeometrie Rechenoperationen Es gilt der Entwicklungssatz: ( ) a b c = ( a c) b ( a ) b c (21) Lagrange sche Identität: ( a ) ( b c ) ( ) ( ) ( d = ( a c) b d b c a ) d Diese Gesetze können verwendet werden, um Vektorterme umzuformen und zu vereinfachen. Wir wollen einige Terme vereinfachen: Beispiel (( a 2 ) ) (( ) ) ( b c b a 5 c (3 c a) ) b =? (22) Roger Burkhardt [email protected] Lineare Algebra 1 275/409
276 Vektorgeometrie Rechenoperationen Fortsetzung: ( [ = 2 a, ]) ( [ ]) ( [ b, c 5 b, a, c 3 c, a, ]) b ( [ = 2 a, ]) ( [ b, c 5 a, ]) ( [ b, c 3 a, ]) b, c [ = 30 a, ] 3 (( b, c = 30 a ) ) 3 b c Beispiel ( ) ( b a a 2 ) b + 3 c =? ( ) ( ) = b a a 2 b a b +3 } {{ } } {{ } =0 =0 = 3 ( b a ) c = 3 [ a, ] b, c ( a ) b c Roger Burkhardt [email protected] Lineare Algebra 1 276/409
277 Vektorgeometrie Rechenoperationen Beispiel ( ( a c) a ) ( ) b + b c ( ) b c =? = ( a c) a ( a c) }{{} ( ) b + b c ( ) b b c c }{{}}{{} =0 =0 =0 = ( a c) [ b = a, c, ] [ b = a, ] b, c Roger Burkhardt [email protected] Lineare Algebra 1 277/409
278 Vektorgeometrie Geometrie Die Gerade - Parametergleichung Unter einer Geraden versteht man die Menge aller Punkte, welche die Gleichung r = r 0 + t a (23) erfüllen. Dabei bezeichnet r einen variablen Ortsvektor auf die Gerade, r 0 einen festen Ortsvektor zu einem Punkt auf der Geraden, a einen Richtungsvektor der Geraden und t ist der Parameter. z a r g : r= r 0 t a r 0 y x Roger Burkhardt [email protected] Lineare Algebra 1 278/409
279 Vektorgeometrie Geometrie Wenn für den Parameter ein Wert eingesetzt wird, erhält man einen bestimmten Ortsvektor, der zu einem Punkt auf der Geraden zeigt. Im dreidimensionalen Raum gibt es (eigentlich) nur diese Möglichkeit eine Gerade zu beschreiben. Wir werden sehen, dass im zweidimensionalen Raum auch eine parameterfreie Beschreibung existiert. Die Beschreibung von Raumkurven mit Parametern findet man häufig in der Physik mit der Zeit als Parameter. Beispiel Wir suchen die Gerade durch die beiden Punkte A(1, 1, 2) und B(4, 2, 0). Den Richtungsvektor entspricht dem Verbindungsvektor der beiden Punkte: a = r B r A = = Roger Burkhardt [email protected] Lineare Algebra 1 279/409
280 Vektorgeometrie Geometrie Fortsetzung: Als festen Punkt kann man den Punkt B wählen und erhält somit: x t r = y = r B + t a = 2 + t 3 = 2 3t z 0 2 2t Da der Richtungsvektor bei der Parametergleichung beliebig mit einer reellen Zahl ungleich 0 gestreckt werden kann und ein beliebiger Punkt auf der Geraden für den festen Punkt gewählt werden kann, ist die im Beispiel gefundene Parametergleichung eine von unendlich vielen Beschreibungsmöglichkeiten der Geraden mittels Parametergleichung. Es gilt: Es gibt unendlich viele Parametergleichungen für eine Gerade! Roger Burkhardt [email protected] Lineare Algebra 1 280/409
281 Vektorgeometrie Geometrie Beispiel Bestimme die Punkte auf der Geraden des vorigen Beispiels für die Parameterwerte 1, 2 und 3: 4 3t 1 1 t 1 = 1 r 1 = 2 3t 1 2t 1 = 5 P 1 (1, 5, 2) 2 t 2 = 2 r 2 = t 3 = 3 r 3 = 4 3t 2 2 3t 2 2t 2 4 3t 3 2 3t 3 2t 3 = = P 2 ( 2, 8, 4) P 3 ( 5, 11, 6) Roger Burkhardt [email protected] Lineare Algebra 1 281/409
282 Vektorgeometrie Geometrie Mit einer Parametergleichung lassen sich durch das Einsetzen von Werten für den Parameter einfach Punkte berechnen. Das Prüfen, ob ein gegebener Punkt auf einer Geraden liegt oder ob zwei gegebene Parametergleichungen die gleiche Gerade beschreiben ist jedoch aufwendiger: Beispiel Liegen die Punkte C(1, 2, 3) und D(10, 4, 4) auf der Geraden des Einführungsbeispiels? Dazu setzt man den zu prüfenden Punkt in der Gleichung ein und prüft ob es einen entsprechenden Parameterwert gibt. Zuerst für den Punkt C: r C = = 4 3t 2 3t 2t 3t = 5 3t = 4 2t = 3 Der Punkt C liegt nicht auf der gegebenen Geraden! L t = {} Roger Burkhardt [email protected] Lineare Algebra 1 282/409
283 Vektorgeometrie Geometrie Fortsetzung: Analog für den Punkt D: t r D = 4 4 = 2 3t 2t Der Punkt D liegt also auf der Geraden. Beispiel 3t = 6 3t = 6 2t = 4 Beschreiben die beiden Gleichungen die selbe Gerade? 2 + t 6 2t g : r g = 2 3t 2t, h : r h = t 8 4t L t = { 2} Roger Burkhardt [email protected] Lineare Algebra 1 283/409
284 Vektorgeometrie Geometrie Fortsetzung: Als erstes prüfen wir, ob die beiden Geraden linear abhängige Richtungsvektoren besitzen, also ob die Geraden parallel sind: 1 2 a g = 3, a h = a h = 2 a g a g a h Die beiden Geraden haben somit die gleiche Richtung! Nun muss noch geprüft werden, ob die Geraden identisch sind. Also ob der Punkt P g (2, 2, 0) auf der Geraden h bzw. P h (6, 10, 8) auf g liegt. Wir sehen P h liegt auf g und die Geraden sind identisch: r H = = 2 + t 2 3t 2t t = 4 3t = 12 2t = 8 L t = {4} Roger Burkhardt [email protected] Lineare Algebra 1 284/409
285 Vektorgeometrie Geometrie Gerade - Koordinatengleichung Im zweidimensionalen Raum lässt sich eine Gerade auch durch eine Koordinatengleichung beschreiben. Wir leiten diese Koordinatengleichung allgemein aus der Parametergleichung her: Herleitung Gesucht sei die Gerade durch die beiden Punkte P 1 (x 1 (, y 1 ) und ) x2 x P 2 (x 2, y 2 ). Mit dem Verbindungsvektor a = r 2 r 1 = 1 y 2 y 1 lautet die Parametergleichung wie folgt: ( ) ( ) ( ) ( ) x x1 x2 x r = = t 1 x1 + t(x = 2 x 1 ) y y 1 y 2 y 1 y 1 + t(y 2 y 1 ) Diese Vektorgleichung kann als lineares Gleichungssystem mit zwei Roger Burkhardt [email protected] Lineare Algebra 1 285/409
286 Vektorgeometrie Geometrie Fortsetzung: Gleichungen und den drei Unbekannten x, y und t aufgefasst werden: x (x 2 x 1 )t = x 1 y (y 2 y 1 )t = y 1 In diesem System kann die Unbekannte t eliminiert werden: t = x x 1 x 2 x 1 = y y 1 y 2 y 1 In dieser letzten Gleichung kommt nun der Parameter nicht mehr vor. Es werden die Punkte auf der Geraden nur durch die entsprechenden Variablen in der Gleichung beschrieben. Stellt man diese letzte Gleichung noch um, erhält man die Koordinatengleichung der Geraden in Normalform: Roger Burkhardt [email protected] Lineare Algebra 1 286/409
287 Vektorgeometrie Geometrie Fortsetzung: Also: 1 x + 1 x 2 x }{{ 1 y } 2 y }{{ 1 } A B ( y1 y + x ) 1 = 0 y 2 y 1 x 2 x 1 }{{} C Ax + By + C = 0 (24) Unter der Voraussetzung, dass der Koeffizient B ungleich Null ist, kann nach y aufgelöst werden und man erhält die lineare Funktion: y = A B + C B = mx + b Dabei bezeichnet m die Steigung und b den y-achsenabschnitt der Geraden. Roger Burkhardt [email protected] Lineare Algebra 1 287/409
288 Vektorgeometrie Geometrie Beispiel Bestimme von der Geraden g die Koordinatengleichung. ( ) 1 + t g : r = 2 3t Das entsprechende Gleichungssystem lautet: x = 1 + t y = 2 3t t = x 1 = 2 y 3 Nach der Elimination des Parameters erhält man: x 1 = 2 y 3 3x + y 5 = 0 y = 3x + 5 Die Gerade schneidet also die y-achse bei b = 5 und hat eine Steigung von m = 3. Roger Burkhardt [email protected] Lineare Algebra 1 288/409
289 Vektorgeometrie Geometrie Für die Gerade gibt es weitere Darstellungsformen der Koordinatengleichung: Zweipunkt-Form y y 1 = y 2 y 1 x 2 x 1 (x x 1 ) (25) Punkt-Steigungs-Form y y P = m (x x P ) (26) Achsenabschnitts-Form x x A + y y A = 1 (27) Roger Burkhardt [email protected] Lineare Algebra 1 289/409
290 Vektorgeometrie Geometrie Die Ebene - Parametergleichung Unter einer Ebene versteht man die Menge aller Punkte, die die Gleichung r = r 0 + t a + s b (28) erfüllen. Dabei bezeichnet r einen variablen Ortsvektor auf die Ebene, r 0 einen festen Ortsvektor zu einem Punkt auf der Ebene, die linear unabhängigen Vektoren a, b sind Richtungsvektoren der Ebene und t, s die Parameter. z : r= r 0 t a s b r 0 b a r y x Roger Burkhardt [email protected] Lineare Algebra 1 290/409
291 Vektorgeometrie Geometrie Der Aufbau der Ebenengleichung ist analog demjenigen der Geradengleichung. Es kommt einfach ein zweiter Richtungsvektor hinzu, um die Ausdehnung der Ebene in ihren zwei Dimensionen zu beschreiben. Um eine Ebenengleichung aufzustellen braucht es dann eben drei Punkte und nicht nur zwei wie bei der Geraden: Beispiel Wir suchen die Ebene durch die drei Punkte A(x A, y A, z A ), B(x B, y B, z B ) und C(x C, y C, z C ). Die beiden Richtungsvektoren: a = r B r A = x B x A y B y A z B z A, b = r C r A = x C x A y C y A z C z A Roger Burkhardt [email protected] Lineare Algebra 1 291/409
292 Vektorgeometrie Geometrie Fortsetzung: Als festen Punkt wälen wir den Punkt A. Somit finden wir: x A x B x A x C x A r = r A + t a + s b = y A z A + t y B y A z B z A + s y C y A z C z A = x A + t(x B x A ) + s(x C x A ) y A + t(y B y A ) + s(y C y A ) z A + t(z B z A ) + s(z C z A ) Analog zur Parametergleichung der Geraden gilt: Es gibt unendlich viele Parametergleichungen für eine Ebene! Roger Burkhardt [email protected] Lineare Algebra 1 292/409
293 Vektorgeometrie Geometrie Beispiel Bestimme die Punkte auf der Ebene ɛ für die Parameterpaare t 1 = 1, s 1 = 4 und t 2 = 3, s 2 = 5: 4 t + 3s ɛ : r = 2 + 3t s 1 t + 3s Werte einsetzen: r 1 = r 2 = 4 t 1 + 3s t 1 s + 1 t 1 + 3s 1 4 t 2 + 3s t 2 s 2 1 t 2 + 3s 2 = = P 1 (15, 1, 12) P 2 (22, 14, 19) Roger Burkhardt [email protected] Lineare Algebra 1 293/409
294 Vektorgeometrie Geometrie Beispiel Liegen die Punkte C(1, 2, 3) und D(10, 8, 7) auf der Ebene des letzten Beispiels? Dazu setzt man den zu prüfenden Punkt in der Gleichung ein und prüft ob es entsprechende Parameterwerte gibt: = 4 t + 3s 2 + 3t s 1 t + 3s t + 3s = 3 3t s = 0 t + 3s = 2 L t,s = {} Der Punkt C liegt nicht auf der gegebenen Ebene! 10 4 t + 3s t + 3s = 6 8 = 2 + 3t s 3t s = t + 3s t + 3s = 6 L t,s = {(3, 3)} Der Punkt D liegt auf der gegebenen Ebene! Roger Burkhardt [email protected] Lineare Algebra 1 294/409
295 Vektorgeometrie Geometrie Ebene - Koordinatengleichung Die Ebene im dreidimensionalen Raum lässt sich wie die Gerade im R 2 auch durch eine Koordinatengleichung beschreiben. Wir leiten diese Koordinatengleichung bei einem Beispiel aus der Parametergleichung her: Herleitung Gesucht sei die Ebene durch die drei Punkte P 1 (1, 1, 1), P 2 (2, 2, 0) und P 3 (3, 0, 5). Mit den Verbindungsvektoren 1 a = r 2 r 1 = 3 und 2 b = r 3 r 1 = 1 lautet die 1 4 Parametergleichung wie folgt: Roger Burkhardt [email protected] Lineare Algebra 1 295/409
296 Vektorgeometrie Geometrie Fortsetzung: r = x y z = 1 + t + 2s 1 3t s 1 t + 4s Diese Vektorgleichung kann als lineares Gleichungssystem mit drei Gleichungen und fünf Unbekannten interpretiert werden: x t 2s = 1 y +3t +s = 1 z +t 4s = 1 In der dritten Gleichung kann nach s aufgelöst werden und dieses s wird dann in den beiden anderen Gleichungen eingesetzt: Roger Burkhardt [email protected] Lineare Algebra 1 296/409
297 Vektorgeometrie Geometrie Fortsetzung: s = z + t 1 4 Das selbe Prinzip für den Parameter t: 2x z 3t = 1 4y +z +13t = 5 t = 5 4y z 13 13x + 6y 5z 14 = 0 Dies lässt sich nun allgemein schreiben: Die Ebene im R 3 kann als Koordinatengleichung Ax + By + Cz + D = 0 (29) geschrieben werden. Roger Burkhardt [email protected] Lineare Algebra 1 297/409
298 Vektorgeometrie Geometrie Normalformen Sei n ein Vektor der normal zur einer Geraden (im R 2 ) bzw. einer Ebene (im R 3 ) steht. Nun steht dieser Vektor natürlich auch normal zu jedem Vektor der parallel zur Geraden bzw. Ebene liegt. Sei weiter ein Ortsvektor r 0 zu einem Punkt auf der Geraden bzw. der Ebene und ein (variabler) Ortsvektor r auf einen beliebigen Punkt auf der Geraden bzw. der Ebene gegeben, so ist der Verbindungsvektor r r 0 dieser beiden Punkte sicher parallel zur Geraden bzw. Ebene. Dies führt nun auf die Normalengleichung: Normalengleichung Eine Gerade im zweidimensionalen Raum und eine Ebene im dreidimensionalen Raum lässt sich mit Hilfe eines Punktes und einem Normalenvektor mittels der Normalengleichung beschreiben: n ( r r 0 ) = 0 (30) Roger Burkhardt [email protected] Lineare Algebra 1 298/409
299 Vektorgeometrie Geometrie r r r 0 n n : n r r 0 =0 r r 0 r r 0 0 g : n r r 0 =0 0 0 r Sei nun (für eine Ebene): n = n x n y n z, r = x y z, r 0 = x 0 y 0 z 0 Roger Burkhardt [email protected] Lineare Algebra 1 299/409
300 Vektorgeometrie Geometrie Wir finden somit: n x }{{} A n x n y n z n ( r r 0 ) = 0 x y z x 0 y 0 z 0 = 0 n x (x x 0 ) + n y (y y 0 ) + n z (z z 0 ) = 0 x + n y }{{} B y + n z }{{} C z + ( n x x 0 n y y 0 n z z 0 ) = 0 }{{} D Ax + By + Cz + D = 0 Roger Burkhardt [email protected] Lineare Algebra 1 300/409
301 Vektorgeometrie Geometrie Beispiel Wir suchen die Ebene durch die drei Punkte A(1, 1, 1), B(2, 3, 4) und C(0, 1, 5). Wir bestimmen die beiden Verbindungsvektoren: a = AB = 1 2 3, b = AC = Das Vektorprodukt dieser beiden Verbindungsvektoren liefert einen Normalenvektor der Ebene (steht normal auf der Ebene): n = a b = = Roger Burkhardt [email protected] Lineare Algebra 1 301/409
302 Vektorgeometrie Geometrie Fortsetzung: Die Ebenengleichung lautet somit: n ( r r 0 ) = 0 x 1 y 1 z 1 = 0 14x 7y 7 = 0 2x y 1 = 0 Beispiel Gesucht sei eine zur Ebene ɛ : 5x 3y + 2z 4 = 0 parallele Ebene durch den Punkt P 0 (1, 3, 2). Um mit der Normalform zu arbeiten, benötigt man neben dem gegebenen Punkt noch den Normalenvektor. Parallele Ebenene haben parallele Roger Burkhardt [email protected] Lineare Algebra 1 302/409
303 Vektorgeometrie Geometrie Fortsetzung: Normalenvektoren. Für die gesuchte Ebene kann also der Normalenvektor der gegebenenen Ebene verwendet werden. Die Komponenten des Normalenvektors sind nun aber gerade die Koeffizienten der Normalengleichung: n = Die gesuchte Ebenengleichung lautet somit: 5 x y 3 z ( 2) = 0 5x 3y + 2z + 8 = 0 2x y 1 = 0 Roger Burkhardt [email protected] Lineare Algebra 1 303/409
304 Vektorgeometrie Geometrie Schnittprobleme In diesem Abschnitt wollen wir die im letzten Abschnitt beschriebenen Objekte miteinander schneiden. Wir suchen also die Menge der Punkte die auf allen zu schneidenden Objekten liegen. Da es verschiedene Möglichkeiten gibt die Objekte zu beschreiben, gibt es auch verschieden Möglichkeiten das Schnittobjekt zu bestimmen. Wir betrachten drei mögliche Fälle: Beispiel Wir suchen den Schnittpunkt der Geraden g mit der Ebenen ɛ: x 2 1 g : y = 1 + t 1 z 3 2 Roger Burkhardt [email protected] Lineare Algebra 1 304/409
305 Vektorgeometrie Geometrie Fortsetzung: ɛ : x y z = u v Schnittprobleme löst man dadurch, dass ein gesuchter Schnittpunkt auf allen zu schneidenden Objekten liegen muss, d.h. die Koordinaten des gesuchten Schnittpunktes erfüllen alle gegebenen Gleichungen. Da hier also die Koordinaten gleich sein müssen, können wir sie gleichsetzen: 2 + t 1 t 3 + 2t = 1 u + 4v 1 + 3u u + 2v Roger Burkhardt [email protected] Lineare Algebra 1 305/409
306 Vektorgeometrie Geometrie Fortsetzung: Die beiden Vektoren sind genau dann gleich, wenn die jeweiligen Komponenten übereinstimmen: t + u 4v = 2 t 3u = 2 2t u 2v = 3 In diesem linearen Gleichungssystem kann man nun nach den Parametern auflösen, welche in den gegebenen Gleichungen eingesetzt den gesuchten Schnittpunkt ergeben: t = 7 4, u = 1 12, v = 5 24 Roger Burkhardt [email protected] Lineare Algebra 1 306/409
307 Vektorgeometrie Geometrie Fortsetzung: r S = = Beispiel Wir suchen den Schnittpunkt der Geraden r = = + t x y z mit der Ebene ɛ : 2x y + 3z + 5 = 0. Hier haben wir nun für das eine Objekt eine Beschreibung mittels Parametern und für das zweite Objekt eine Beschreibung mittels Koordinatengleichung Roger Burkhardt [email protected] Lineare Algebra 1 307/409
308 Vektorgeometrie Geometrie Fortsetzung: Hier bestimmen wir das Schnittobjekt durch das Einsetzen der Komponenten der Parametergleichung in die Koordinatengleichung: 2 (1 + 4t) (2 + t) + 3 (1 + 0t) + 5 = 0 7t + 8 = 0 t = 8 7 Mit dem berchneten Parameter erhalten wir nun den Schnittpunkt: x 1 r = y = = z Beispiel Wir suchen die Schnittgerade der beiden Ebenen ɛ 1 : x + y + z + 1 = 0 und ɛ 2 : x y + 2z 3 = 0. Roger Burkhardt [email protected] Lineare Algebra 1 308/409
309 Vektorgeometrie Geometrie Fortsetzung: Hier sind beide Objekte mittels Koordinatengleichung gegeben. Wir erhalten somit ein (lineares) Gleichungssystem: x + y + z + 1 = 0 x y + 2z 3 = 0 Die Lösungsmenge dieses Gleichungssystem beschreibt nun das Schnittobjekt (Gerade im R 3 ): { ( 2 3z L = (x, y, z) R 3 :, z 4 )} 2 2, z x y z = 2 3z 2 z 4 2 z = z Roger Burkhardt [email protected] Lineare Algebra 1 309/409
310 Vektorgeometrie Geometrie Abstandsprobleme Nun betrachten wir Abstandsprobleme. Bei einem Abstandsproblem sucht man in der Regel die kürzeste Entfernung zwischen zwei Objekten (Punkte, Geraden und Ebenen). Denken wir uns als Beispiel eine Gerade und einen Punkt der nicht auf dieser Geraden liegt. Verbinden wir nun einzelne Punkte der Geraden mit dem festen Punkt so haben diese Verbindungsvektoren eine bestimmte Länge. Wir suchen nun den Punkt auf der Geraden, so dass der entstehende Verbindungsvektor minimale Länge aufweist. Diesen Punkt mit kürzester Entfernung bezeichnet man meist als den Fusspunkt. Neben dem Fusspunkt intressiert oft auch die kürzeste Entfernung. Es gibt unterschiedliche Vorgehensweisen um solche Abstandsprobleme zu lösen. Anhand von drei Beispielen betrachten wir die häufigsten Ansätze: Roger Burkhardt Lineare Algebra 1 310/409
311 Vektorgeometrie Geometrie g : r= r 0 t a P r P r F F a r 0 0 Beispiel Gegeben sei die Gerade g und der Punkt P(1, 2, 3). Wir suchen den Fusspunkt und die kürzeste Entfernung der beiden Objekte. 0 1 g : r = 1 + t Roger Burkhardt [email protected] Lineare Algebra 1 311/409
312 Vektorgeometrie Geometrie Fortsetzung: Da der gesuchte Punkt auf der Geraden liegt machen wir folgenden Ansatz: 0 1 r F = 1 + t F Nun finden wir den folgenden Verbindungsvektor: 1 t F FP = r P r F = 1 + t F 2 t F Damit der Verbindungsvektor minimale Länge aufweist, muss er senkrecht zur Geraden stehen. Wenden wir das Skalarprodukt an: FP a = 0 Roger Burkhardt [email protected] Lineare Algebra 1 312/409
313 Vektorgeometrie Geometrie Fortsetzung: 1 t F 1 + t F 2 t F = 0 3t F + 2 = 0 t F = 2 3 Und somit lautet der gesuchte Fusspunkt: 0 r F = = Und für die Distanz: d = FP (1 ) 2 = + 3 ( ) ( ) = = Roger Burkhardt [email protected] Lineare Algebra 1 313/409
314 Vektorgeometrie Geometrie Beispiel Bestimme die kürzeste Entfernung zwischen der Geraden g und dem Punkt P (1, 1, 1). g : r = x y z = t Wenn nur die kürzeste Entfernung gesucht ist, gibt es eine einfache Berechnungsformel. Zur Herleitung: P d g : r= r 0 t a r P QP F 0 r 0= r Q Q S QS= a Roger Burkhardt [email protected] Lineare Algebra 1 314/409
315 Vektorgeometrie Geometrie Fortsetzung: Wir verwenden dazu zwei verschiedene Möglichkeiten die Fläche des Dreiecks PQS zu berechnen: Die Fläche des Dreiecks lässt sich einerseits mit dem Vektorprodukt berechnen: A = 1 QS 2 QP Andererseits lässt sich die Fläche mit der Formel Grundlinie mal Höhe durch 2 bestimmen: A = 1 QS 2 d Durch das Gleichsetzen der beiden Formeln finden wir eine Gleichung in der wir nach der Distanz d auflösen können: Roger Burkhardt [email protected] Lineare Algebra 1 315/409
316 Vektorgeometrie Geometrie Fortsetzung: QS QP d = QS = a ( r P r 0 ) a Nun müssen wir nur noch einsetzen: 1 d = a ( r 1 P r 0 ) 1 = a = 14 Roger Burkhardt [email protected] Lineare Algebra 1 316/409
317 Vektorgeometrie Geometrie Auch für den Abstand eines Punktes zu einer Ebene in Parameterdarstellung gibt es die beiden eben besprochenen Verfahren. Beispiel Wir suchen den (kürzesten) Abstand des Punktes P(0, 1, 2) zur Ebene ε: ε : r = r 0 + t a + s b = 1 + t 1 + s In einer ersten Variante wird ein Ansatz für den Fusspunkt gemacht und der Verbindungsvektor des Punktes zu diesem Fusspunkt bestimmt: Roger Burkhardt [email protected] Lineare Algebra 1 317/409
318 Vektorgeometrie Geometrie Fortsetzung: FP = r P r F = 1 2t + s t 3s 1 + 4s Da dieser Vektor normal zur Ebene steht, muss er auch normal zu den beiden Richtungsvektoren der Ebene stehen (Skalarprodukt wird Null): a FP = 0 5t + 5s = 2, b FP = 0 5t 26s = 3 Aus dem entstehenden linearen Gleichungssystem können die Parameterwerte für den Fusspunkt bestimmt werden: 5t + 5s = 2 5t 26s = 3 t = 5 21, s = Roger Burkhardt [email protected] Lineare Algebra 1 318/409
319 Vektorgeometrie Geometrie Fortsetzung: Für den Fusspunkt und den Abstand gilt somit: r F =, d = FP = = In einer zweiten Variante wird untenstehendes Spatvolumen auf zwei verschiedene Varianten beschrieben: P r P 0 r P r 0 b F : r= r 0 t a s b r 0 a P 0 Roger Burkhardt [email protected] Lineare Algebra 1 319/409
320 Vektorgeometrie Geometrie Fortsetzung: Volumenberechnung mittels Spatprodukt: V = [ a, ] b, r P r 0 Volumenberechnung mittels Grundfläche (Vektorprodukt) und Spathöhe: V = a b d Formeln gleichsetzen und nach der gesuchten Distanz aufösen liefert eine direkte Berechnungsformel: [ a, ] ( b, r P r 0 a ) b ( r P r 0 ) d = a = b a b Roger Burkhardt [email protected] Lineare Algebra 1 320/409
321 Vektorgeometrie Geometrie Hesse sche Normalform Eine weitere Möglichkeit Abstände zu bestimmen basiert auf dem Prinzip der Projektion: n r r 0 =0 P 0 r 0 0 v= r P r 0 n d=v n r P P Roger Burkhardt [email protected] Lineare Algebra 1 321/409
322 Vektorgeometrie Geometrie Die Projektionslänge des Verbindungsvektors zwischen einem beliebigen Punkt auf der Gerade bzw. der Ebene zum gegebenen Punkt auf den Normalenvektor lässt sich mit dem Skalarprodukt beschreiben: n v d = v n = = n ( r P r 0 ) n n Der Zähler des letzten Terms entspricht fast der Normalform der Geraden bzw. der Ebene. Anstelle des variablen Vektors auf einen beliebigen Punkt auf der Geraden bzw. der Ebene ist nun der Punkt in der Normalform eingesetzt, von welchem man den Abstand bestimmen möchte. Betrachten wir daher nocheinmal die Normalform n ( r r 0 ) = 0. Diese Gleichung können wir beidseitig durch die Länge des Normalenvektors dividieren: n ( r r 0 ) n = 0 Roger Burkhardt [email protected] Lineare Algebra 1 322/409
323 Vektorgeometrie Geometrie Diese neue Gleichung beschreibt immer noch das gleiche Objekt. D.h. wenn wir einen Punkt der Geraden bzw. der Ebene einsetzen, so ist die Gleichung erfüllt (0 = 0). Wird nun aber in dieser Gleichung ein Punkt eingesetzt, welcher nicht auf der Geraden bzw. der Ebene liegt, so ist die Gleichung nicht erfüllt, doch der Wert auf der linken Seite liefert (bis auf das Vorzeichen) gerade die kürzeste Entfernung des eingesetzten Punktes zum Objekt! Hesse sche Normalform Sei n Normalenvektor einer Geraden (im R 2 ) bzw. einer Ebene (im R 3 ) und r 0 ein Ortsvektor auf einen Punkt der Geraden bzw. Ebene, so beschreibt die Hesse sche Normalform n ( r r 0 ) n = 0 (31) alle Punkte ( r) der Geraden bzw. der Ebene. Roger Burkhardt [email protected] Lineare Algebra 1 323/409
324 Vektorgeometrie Geometrie Fortsetzung: Wird anstelle eines Punktes der Geraden bzw. der Ebene ein beliebiger anderer Punkt ( r P ) eingesetzt, so liefert die linke Seite der Hesse schen Normalform die kürzeste Distanz des Punktes zur Geraden bzw. zur Ebene: d = ± n ( r P r 0 ) n (32) Das Vorzeichen dieses letzten Ausdrucks ist positiv, wenn der Normalenvektor zum eingesetzten Punkt hinzeigt, andernfalls ist das Resultat negativ! d 0 n d 0 Roger Burkhardt [email protected] Lineare Algebra 1 324/409
325 Vektorgeometrie Geometrie Es gibt viele verschiedene Anwendungen für die Hesse sche Normalform. Wir betrachten einige Beispiele. Beispiel Bestimme die kürzeste Entfernung des Ursprungs zur Ebene ε : 3x 12y + 4z + 39 = 0. Die gegebene Normalform wird in die entsprechende Hesse sche Normalform umgewandelt. Dazu benötigen wir den Normalenvektor: n = n = ( 12) = 169 = 13 Beidseitiges dividieren der Normalform durch den Betrag des Normalenvektors liefert die Hesse sche Normalform: 3x 12y + 4z Roger Burkhardt [email protected] Lineare Algebra 1 325/409 = 0
326 Vektorgeometrie Geometrie Fortsetzung: Setzen wir nun den Ursprung in der Gleichung ein erhalten wir die gesuchte (kürzeste) Distanz: d = 3(0) 12(0) + 4(0) = 3 Es ergeben sich die folgenden Koordinatengleichungen: Koordinatengleichung der Hesse schen Normalform Ax + By + C A 2 + B 2 = 0, Ax + By + Cz + D A 2 + B 2 + C 2 = 0 (33) Die Abstände einer Geraden bzw. einer Ebene zum Ursprung ergeben sich also zu d g = ± C bzw. d D A 2 +B 2 ε = ± A 2 +B 2 +C 2. Roger Burkhardt [email protected] Lineare Algebra 1 326/409
327 Vektorgeometrie Geometrie Beispiel Bestimme die Schnittwinkel einer Ebene mit den drei Koordinatenachsen. z : n x n x n y n y n z n z D n =0 n y x Roger Burkhardt [email protected] Lineare Algebra 1 327/409
328 Vektorgeometrie Geometrie Fortsetzung: Dabei kann der Winkel zwischen dem Normalenvektor der Ebene und dem Richtungsvektor einer Geraden (z.b. die Koordinatenachsen) mittels Skalarprodukt bestimmt werden. Um den gesuchten Schnittwinkel zwischen Ebene und Gerade zu erhalten, muss dann der Ergänzungswinkel auf 90 berechnet werden. Also für das gegebene Problem: ( ) ( ) n α = 90 ex acos = 90 nx acos n n Durch umstellen findet man: ( ) nx acos = 90 α n Roger Burkhardt [email protected] Lineare Algebra 1 328/409
329 Vektorgeometrie Geometrie Fortsetzung n x n = cos (90 α) n x n = cos (90 ) cos (α) + sin (90 ) sin (α) n x = sin (α) n Die Koeffizienten in der Hesse schen Normalform sind also gerade die Sinuswerte der Schnittwinkel mit den Koordinatenachsen (oder die Kosinuswerte der Winkel gegen den Normalenvektor): n x n x + n y n y + n z n z + D D = 0 sin(α)x +sin(β)y +sin(γ)z + n n = 0 Roger Burkhardt [email protected] Lineare Algebra 1 329/409
330 Vektorgeometrie Geometrie Beispiel Wir suchen den Inkreismittelpunkt des Dreiecks mit den Punkten A(x A, y A ),B(x B, y B ) und C(x C, y C ). Dieses Problem lösen wir mit zwei verschidenen Varianten. Bei der ersten Variante werden wir zwei Winkelhalbierende bestimmen und diese schneiden. Bei der zweiten Variante werden wir den Radius mit der Distanzmessung mittels Hesse schen Normalform berechnen. Bei beiden Varianten braucht man die Seitengeraden des Dreiecks. Für die Gerade durch A und B finden wir (Zweipunktform): g c : y = y B y A x B x A (x x A ) + y A (y B y A ) x + ( (x }{{} B x A )) y + (x }{{} B y A x A y B ) }{{} n x n y c = 0 Roger Burkhardt [email protected] Lineare Algebra 1 330/409
331 Vektorgeometrie Geometrie Fortsetznung: Für die drei Punkte A(1, 4), B(5, 2) und C(6, 6) ergeben sich die drei Geraden also zu (HNF): a : (y C y B )x (x C x B )y +(x C y B x B y C ) = 0 4x y 18 = 0 4x y = 0 b : (y C y A )x (x C x A )y +(x C y A x A y C ) = 0 2x 5y +18 = 0 2x 5y = 0 c : (y B y A )x (x B x A )y +(x B y A x B y A ) = 0 2x 4y +18 = 0 x 2y = 0 Roger Burkhardt [email protected] Lineare Algebra 1 331/409
332 Vektorgeometrie Geometrie Fortsetzung: Um nun zwei Winkelhalbierende zu bestimmen, nützen wir die Eigenschaft, dass jeder Punkt auf der Winkelhalbierenden gleiche Entfernung von den beiden Geraden aufweist: g 1 w i w a d d n 1 n 2 g 2 Eine Winkelhalbierende erhält man somit durch das Gleichsetzen der Hesse schen Normalformen der Geraden. Dabei muss jedoch auf die Richtung der Normalenvektoren geachtet werden (innere und äussere Winkelhalbierende). Für das Dreieckproblem legt man am besten alle Normalenvektoren so, dass sie ins innere des Dreiecks zeigen - wenn ein gegenüberliegender Eckpunkt in die Roger Burkhardt [email protected] Lineare Algebra 1 332/409
333 Vektorgeometrie Geometrie Fortsetzung: Hesse sche Normalform eingesetzt wird erhält man ein positives Resultat, andernfalls muss die Hesse sche Normalform mit minus Eins multipliziert werden!: A HNF (a) : 4(1) (4) 18 4x + y + 18 < 0 = B HNF (b) : 2(5) 5(2) > 0 C HNF (c) : (6) 2(6) < 0 x + 2y 9 5 = 0 Winkelhalbierende zwischen a und b (HNF (a) = HNF (b)): Roger Burkhardt [email protected] Lineare Algebra 1 333/409
334 Vektorgeometrie Geometrie Fortsetzung: 4x + y x 5y + 18 = = ( )x + ( )y = 0 Winkelhalbierende zwischen a und c (HNF (a) = HNF (c)): 4x + y + 18 = x + 2y ( )x + (2 17 5)y = 0 Den Inkreismittelpunkt ist nun gleich dem Schnittpunkt der beiden Winkelhalbierenden: M (4.14, 3.87) Roger Burkhardt [email protected] Lineare Algebra 1 334/409
335 Vektorgeometrie Geometrie Fortsetzung: Wäre auch noch der Inkreisradius gesucht, kann der gefundene Inkreismittelpunkt in einer der drei Hesse schen Normalformen der Seitengeraden eingesetzt werden. Diese Tatsache nutzen wir nun in der zweiten, viel einfacheren Variante. Wenn der gesuchte Inkreismittelpunkt M(x m, y m ) in den Hesse schen Normalformen der drei Seitengeraden eingesetzt wird, erhält man jeweils den noch nicht bekannten Inkreisradius r i. Es ergibt sich also ein lineares Gleichungssystem mit drei Gleichungen und den drei Unbekannten x m, y m und r i : = r i 4x m+y m x m 5y m x m+2y m 9 5 = r i = r i Roger Burkhardt [email protected] Lineare Algebra 1 335/409
336 Vektorgeometrie Geometrie Fortsetzung: x m y m r i = x m y m r i = Roger Burkhardt [email protected] Lineare Algebra 1 336/409
337 Vektorgeometrie Geometrie Beispiel Im Punkt Q(1, 1, 1) sei eine Lichtquelle angebracht. Gesucht ist die Richtung des Lichtstrahls, welcher gespiegelt an der Ebene ε : x + 2y 2z + 7 = 0 den Punkt P(3, 3, 1) trifft. In der nachstehenden Skizze sieht man, dass der Punkt P an der Ebene ε gespiegelt werden muss: P d 0 Q F d r 0 S n Roger Burkhardt [email protected] Lineare Algebra 1 337/409
338 Vektorgeometrie Geometrie Fortsetzung: Um den Spiegelpunkt zu erhalten, addieren wir zum Ortsvektor von P den Verbindungsvektor von P nach S. Dieser Verbindungsvektor ist gleich dem Einheitsnormalenvektor multipliziert mit der (negativen) zweifachen Entfernung des Punktes P zur Ebene: r S = r P + 2d n n = r P 2 n ( r P r 0 ) n n n = r P 2 n ( r P r 0 ) n 2 n Für die gegebenen Daten erhält man den folgenden Spiegelpunkt: r S = 3 (3) + 2(3) 2( 1) = Die Richtung des gesuchten Richtstrahls ist nun gleich dem Verbindungsvektor QS. Roger Burkhardt [email protected] Lineare Algebra 1 338/409
339 Vektorgeometrie Geometrie Kreis und Kugel Als weitere Ortskurven betrachten wir Kreise und Kugeln. Wir wollen also alle Punkte beschreiben, welche von einem gegebenen Punkt (dem Mittelpunkt) konstanten Abstand (Radius) aufweisen. Der Kreis bzw. die Kugel mit Mittelpunkt r M und Radius R ist gegeben durch die Vektorgleichung: r r M = R (34) y r r M R y M r M x M, y M r M x x M Roger Burkhardt [email protected] Lineare Algebra 1 339/409
340 Vektorgeometrie Geometrie Die Koordinatengleichung erhalten wir durch einfaches ausrechnen (hier für den Kreis): ( ) ( ) x xm = R y y M (x x M ) 2 + (y y M ) 2 = R (x x M ) 2 + (y y M ) 2 = R 2 Koordinatengleichung Kreis und Kugel (x x M ) 2 + (y y M ) 2 = R 2 (35) (x x M ) 2 + (y y M ) 2 + (z z M ) 2 = R 2 (36) Roger Burkhardt [email protected] Lineare Algebra 1 340/409
341 Vektorgeometrie Geometrie Die Binome können jetzt noch ausmultipliziert werden: x 2 + ( 2x M )x + y 2 + ( 2y M ) + (x 2 M + y 2 M R2 ) = 0 Oder dann allgemeiner: Kegelschnittgleichung Ein Kegelschnitt (Kreis, Ellipse, Parabel und Hyperbel) lässt sich durch die Gleichung: Ax 2 + Bx + Cy 2 + Dy + E = 0 (37) beschreiben. Für einen Kreis muss A = C gelten. Analog gilt die Gleichung im R 3 : Ax 2 + Bx + Cy 2 + Dy + Ez 2 + Fz + G = 0 (38) Roger Burkhardt [email protected] Lineare Algebra 1 341/409
342 Vektorgeometrie Geometrie Beispiel Bestimme von der Kugel k den Mittelpunkt und den Radius. k : 3x 2 24x + 3y 2 6y + 3z z 12 = 0 Damit die Gleichung überhaupt eine Kugel beschreibt, müssen die Koeffizienten vor den quadratischen Termen gleich sein! Hier finden wir den Faktor 3 und durch diesen kann die gegebene Gleichung dividiert werden: x 2 8x + y 2 2y + z 2 + 4z 4 = 0 Nun wendet man die Methode der quadratischen Ergänzung an, um wieder die Binome zu erhalten (x 2 8x = x x + ( 4) 2 ( 4) 2 = (x 4) 2 16): (x 4) (y 1) (z + 2) = 0 Roger Burkhardt [email protected] Lineare Algebra 1 342/409
343 Vektorgeometrie Geometrie Fortsetzung: (x 4) 2 + (y 1) 2 + (z ( 2)) 2 = 5 2 Der gesuchte Mittelpunkt liegt also bei M(4, 1, 2) und die Kugel hat den Radius R = 5. Beispiel Gesucht ist die Kreisgleichung des Kreises durch die drei Punkte A(4, 1), B(7, 2) und C(2, 6). C r C R m AC M m BC r M 0 R A r B R B m AB Roger Burkhardt [email protected] Lineare Algebra 1 343/409
344 Vektorgeometrie Geometrie Fortsetzung: Wir wenden hier zwei verschiedene Varianten an. In einem ersten Verfahren schneiden wir zwei Mittelsenkrechten um den Mittelpunkt des gesuchten Kreises zu erhalten. Von einer Mittelsenkrechten kennen wir einen Punkt und den Normalenvektor: m AB : n ( r r 0 ) = 0 AB ( 3x + 3y 18 = 0 r r A + r B 2 Analog für die beiden anderen Mittelsenkrechten: ) = 0 m AC : 2x + 7y 23 2 = 0, m BC : 5x + 4y = 0 Roger Burkhardt [email protected] Lineare Algebra 1 344/409
345 Vektorgeometrie Geometrie Fortsetzung: Schneiden zweier Mittelsenkrechten (m AB m AC ): ( 3x + 3y 18 = 0 2x + 7y 23 2 = 0 61 M 18, 47 ) 18 Den Radius erhalten wir als Länge eines Verbindungsvektors vom Mittelpunkt zu einem der gegebenen Eckpunkte (z.b. zum Punkt A): R = MA ( ) = 11 = = 3.66 In einer zweiten Variante wird für die Kreisgleichung ein allgemeiner Ansatz gemacht. Damit ein lineares Gleichungssystem entsteht, wählt man am besten den Kegelschnittansatz: x 2 + Bx + y 2 + Dy + E = 0. Roger Burkhardt [email protected] Lineare Algebra 1 345/409
346 Vektorgeometrie Geometrie Fortsetzung: Im Ansatz die drei gegebenen Punkte einsetzen: 4B D + E = 17 7B + 2D + E = 53 2B + 6D + E = 40 x x + y y = 0 Gleichung mit quadratischer Ergänzung in Mittelpunktsform umwandeln: ( x 61 ) 2 ( + y 47 ) 2 = Aus der letzten Gleichung können die gesuchten Grössen herausgelesen werden! Roger Burkhardt [email protected] Lineare Algebra 1 346/409
347 Vektorgeometrie Geometrie Beispiel Bestimme die Schnittpunkte der beiden Kreise: k 1 : (x 4) 2 + (y 3) 2 = 5 2 k 2 : (x 12) 2 + (y 5) 2 = 6 2 Um die beiden Schnittpunkte zu bestimmen, muss das nicht lineare Gleichungssystem x 2 8x + y 2 6y = 0 x 2 24x + y 2 10y = 133 gelöst werden! Dies kann z.b. durch Auflösen der einen Gleichung nach der einen Variablen und anschliessendem Einsetzen in der verbleibenden Gleichung erfolgen! Roger Burkhardt [email protected] Lineare Algebra 1 347/409
348 Vektorgeometrie Geometrie Fortsetzung: Einfacher geht es, indem wir die beiden Kreisgleichungen voneinander subtrahieren, so dass in der neuen Gleichung keine quadratischen Terme mehr auftreten: k 1 k 2 : 16x + 4y = 133. Diese neue Gleichung beschreibt eine Gerade. Stellen wir die Gleichungen graphisch dar, so sehen wir, dass diese Gerade die beiden gesuchten Schnittpunkte beinhaltet: Roger Burkhardt [email protected] Lineare Algebra 1 348/409
349 Vektorgeometrie Geometrie Fortsetzung: Dieses Verfahren funktioniert immer und die Geradengleichung beinhaltet die gesuchten Schnittpunkte. Wir erhalten also ein neues Gleichungssystem: x 2 8x + y 2 6y = 0 16x + 4y = 133 y = x 4 ( ) x 2 ( ) x x 2 8x + 6 = Wir erhalten eine quadratische Gleichung: 272x x = 0 x 1 = 6.48, x 2 = 8.23 Nun können die dazugehörigen y-werte und somit die Schnittpunkte bestimmt werden: S 1 (6.48, 7.34), S 2 (8.23, 0.33). Roger Burkhardt [email protected] Lineare Algebra 1 349/409
350 Vektorgeometrie Geometrie Beispiel Gegeben seien die Punkte A(4, 1) und B(8, 2) und die Gerade g : x + y = 1. Gesucht sei der Punkt C auf der Geraden, so dass das Dreieck ABC in C rechtwinklig ist. Um den gesuchten Punkt zu bestimmen, bilden wir über der Strecke AB den Thaleskreis und schneiden diesen mit der Geraden g. Roger Burkhardt [email protected] Lineare Algebra 1 350/409
351 Vektorgeometrie Geometrie Beispiel Mittelpunkt und Radius des Thaleskreis: r M = 1 ( ) 6 2 ( r A + r B ) =, R = AM = Die Gleichung des Thaleskreis lautet somit: ( (x 6) 2 + y + 1 ) 2 = x 2 12x + y 2 + y = Thaleskreis mit der Geraden schneiden: x 2 12x + y 2 + y = 123 ( ) 4 7 x + y = 1 C 1 (8, 1), C 2 2, 1 2 Roger Burkhardt [email protected] Lineare Algebra 1 351/409
352 Lineare Abbildungen 7 Lineare Abbildungen Roger Burkhardt [email protected] Lineare Algebra 1 352/409
353 Lineare Abbildungen 7 Lineare Abbildungen Einführung Definition Abbildungsmatrix Kern und Bild Vektorräume Kern und Bild Dimensionsformel Verkettung von linearen Abbildungen Verkettung Umkehrabbildung Geometrische Abbildungen Einführung Wichtige geometrische Abbildungen Roger Burkhardt [email protected] Lineare Algebra 1 353/409
354 Lineare Abbildungen Einführung Definition lineare Abbildung Lineare Abbildungen sind Funktionen zwischen zwei Vektorräumen. Als Argument und als Resultat einer linearen Abbildungen haben wir also Vektoren. Abbildungen zwischen Vektorräumen gibt es unendlich viele und sehr verschiedenartige. Wir betrachten hier die einfachsten Abbildungen: Definition Seien V und W Vektorräume über den Körper K. Eine Abbildung f : V W heisst linear (oder ein Homomorphismus), wenn für alle v, w V, λ K folgendes gilt: f (v + w) = f (v) + f (w) (1) f (λv) = λf (v) (2) Roger Burkhardt [email protected] Lineare Algebra 1 354/409
355 Lineare Abbildungen Einführung Beispiel Die Projektionsabbildung p xy : R 3 R 2, p xy (x, y, z) = (x, y) ist eine lineare Abbildung. Diese Abbildung ist linear, da die beiden Abbildungsgesetze gelten: p xy ((x 1, y 1, z 1 ) + (x 2, y 2, z 2 )) = p xy ((x 1, y 1, z 1 )) + p xy ((x 2, y 2, z 2 )) p xy ((x 1 + x 2, y 1 + y 2, z 1 + z 2 )) = (x 1, y 1 ) + (x 2, y 2 ) (x 1 + x 2, y 1 + y 2 ) = (x 1 + x 2, y 1 + y 2 ) p xy (λ(x, y, z)) = λp xy ((x, y, z)) p xy ((λx, λy, λz)) = λ(x, y) (λx, λy) = (λx, λy) Roger Burkhardt [email protected] Lineare Algebra 1 355/409
356 Lineare Abbildungen Einführung Beispiel Eine sehr interessante lineare Abbildung ist die folgende: ( ) ( d α : R 2 R 2 cos(α) sin(α) x, d α (x, y) = sin(α) cos(α) y ) Hier werden Punkte (oder Ortsvektoren zu Punkten) des zweidimensionalen Raumes um den Ursprung um den Winkel α im gegenuhrzeigersinn rotiert. y cos sin sin cos x y x y x Roger Burkhardt [email protected] Lineare Algebra 1 356/409
357 Lineare Abbildungen Einführung Fortsetzung: Diese Abbildung ist linear, da die beiden Abbildungsgesetze gelten: d α ((x 1, y 1 ) + (x 2, y 2 )) = d α ((x 1, y 1 )) + d α ((x 2, y 2 )) d α (λ(x, y)) = λd α ((x, y)) Verallgemeinerung dieses Sachverhalts: Theorem Jede n m-matrix A beschreibt eine lineare Abbildung zwischen den m- und n-dimensionalen Vektorräumen R m und R n : A : R m R n, A x 1. x m = y 1. y n (3) Roger Burkhardt [email protected] Lineare Algebra 1 357/409
358 Lineare Abbildungen Einführung Um die Vielfalt linearer Abbildungen zu zeigen betrachten wir noch ein weiteres Beispiel (mit einem allgemeineren Vektorraum): Beispiel Aus der Analysis ist bekannt, dass das Differential (und auch das Integral) eine lineare Operation ist. D.h. es gelten die folgenden Ableitungsregeln: Summenregel: d dx (f (x) + g (x)) = d dx f (x) + d dx g (x) Regel konstanter Faktor: d dx (λf (x)) = λ d dx f (x) Roger Burkhardt [email protected] Lineare Algebra 1 358/409
359 Lineare Abbildungen Einführung Fortsetzung: So ist die Ableitung von Polynomfunktionen mit reellen Koeffizienten höchstens dritten Grades eine lineare Abbildung im Vektorraum der Polynome höchstens dritten Grades. V ={Menge aller Polynome höchstens drittengrades} V V a 3 x 3 a 2 x 2 a 1 x a 0 d dx 3 a 3 x 2 2 a 2 x a 1 Roger Burkhardt [email protected] Lineare Algebra 1 359/409
360 Lineare Abbildungen Einführung Die Forderungen der Abbildungsgesetze bei linearen Abbildungen bewirken, das eine Linearkombination unter der linearen Abbildung erhalten bleibt. Sei also f eine lineare Abbildung zwischen den Vektorräumen V und W und sei v V als Linearkombination v = k 1 b k n b n darstellbar, so kann der Funktionswert f (v) ebenfalls als Linearkombination geschrieben werden: f (v) = f (k 1 b k n b n ) = k 1 f (b 1 ) k n f (b n ) Diese Tatsache bewirkt, dass eine lineare Abbildung aus den Funktionswerten der Basisvektoren eindeutig definiert ist. Beispiel Wir betrachten die lineare Abbildung f : R 3 R 3, wobei für die Vektorräume die kanonische Basis verwendet wird. Von der linearen Abbildung kennen wir die Funktionswerte der Basisvektoren: Roger Burkhardt [email protected] Lineare Algebra 1 360/409
361 Lineare Abbildungen Einführung Fortsetzung: f (1, 0, 0) = (1, 1, 1), f (0, 1, 0) = (1, 1, 0), f (0, 0, 1) = (1, 0, 0) Wir suchen die Abbildungsvorschrift der linearen Abbildung f. D.h. wir suchen den Funktionswert eines beliebigen Vektors v = (x, y, z). Da sich dieser Vektor als Linearkombination der Basisvektoren schreiben lässt v = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1), gilt nun für den gesuchten Funktionswert: f (v) = f (x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)) f (v) = xf (1, 0, 0) + yf (0, 1, 0) + zf (0, 0, 1) f (v) = x(1, 1, 1) + y(1, 1, 0) + z(1, 0, 0) f (x, y, z) = (x + y + z, x + y, x) Roger Burkhardt [email protected] Lineare Algebra 1 361/409
362 Lineare Abbildungen Einführung Es gilt also: Theorem Eine lineare Abbildung ist durch die Bilder (Funktionswerte) der Basisvektoren eindeutig bestimmt. Weiter vorne haben wir gesehen, dass die Multiplikation eines Spaltenvektors mit einer Matrix immer eine lineare Abbildung beschreibt. Diesen Sachverhalt kann man auch umkehren. In einem allgemeinen, endlich dimensionalen Vektorraum V mit der Basis B = {b 1,..., b n } lässt sich jeder Vektor v V des Vektorraums eindeutig als Linearkombination der Basisvektoren schreiben: v = n k=1 λ kb k. Diese Linearkombination lässt sich kurz auch als Spaltenvektor mit den Koeffizienten der Linearkombination ausdrücken: v B = (λ 1, λ 2,..., λ n ) T. Roger Burkhardt [email protected] Lineare Algebra 1 362/409
363 Lineare Abbildungen Einführung Abbildungsmatrix Theorem Sind V und W endlich dimensionale Vektorräume mit den Basen A = {a 1,..., a m } von V und B = {b 1,..., b n } von W und f : V W eine lineare Abbildung von V nach W, so existiert eine n m-matrix MB A = M, welche die lineare Abbildung beschreibt: v V f (v) = MB A v = Mv W (4) V A ={a1,..., a m } f W B={b1,..., b n } R m a1,..., a m M A B R n b1,...,b n Roger Burkhardt [email protected] Lineare Algebra 1 363/409
364 Lineare Abbildungen Einführung Dabei nennt man diese Matrix MB A die Abbildungsmatrix der linearen Abbildung f. Sind die Basen der Vektorräume klar, kann die Basenbezeichnung weggelassen werden: MB A = M. Die (linearen) Abbildungen Φ (a1,...,a m) und Φ (b1,...,b n) sind die Basisisomorphismen für eine allfällige Basiszuordnung! Diese Abbildungsmatrix ist zu den gegebenen Basen eindeutig definiert und es gilt: Theorem Die Spalten der Abbildungsmatrix sind die Bilder (Funktionswerte) der Basisvektoren: M A B = (f (a 1),..., f (a m )) (5) Roger Burkhardt [email protected] Lineare Algebra 1 364/409
365 Lineare Abbildungen Einführung Beispiel Die Projektionsabbildung p xy : R 3 R 2, p xy (x, y, z) = (x, y) des Einführungsbeispiels lässt sich in der kanonischen Basis durch die folgende Abbildungsmatrix beschreiben: M = ( p xy (1, 0, 0) p xy (0, 1, 0) p xy (0, 0, 1) ) ( ) = Wenn das Produkt mit dem allgemeinen Spaltenvektor v = (x, y, z) T berechnet wird, erhält man die ursprüngliche Beschreibung der Abbildung (als Spaltenvektor). Mv = ( ) x y z = ( x y ) Roger Burkhardt [email protected] Lineare Algebra 1 365/409
366 Lineare Abbildungen Einführung Beispiel Wir suchen für die lineare Abbildung f : V V der Ableitung von Polynomen höchstens dritten Grades die Abbildungsmatrix. Dazu verwenden wir die folgende Basis B = { 1, x, x 2, x 3} für den Vektorraum V der Polynome. Es gilt also: M = ( Φ 1 B ( d dx 1) M = ( Φ 1 B (0) Φ 1 B ( d dx x) M = Φ 1 B (1) Φ 1 B ( d dx x 2 ) Φ 1 B (2x) Φ 1 B ( d dx x 3 ) ) Φ 1 B (3x 2 ) ) Roger Burkhardt [email protected] Lineare Algebra 1 366/409
367 Lineare Abbildungen Einführung Fortsetzung: Die Ableitung (z.b. p(x) = 17x 3 + 2x 2 14) kann nun durch Multiplikation mit der Abbildungsmatrix berechnet werden: p B = Φ 1 B (p(x)) = Φ 1 B (17x 3 + 2x 2 14) = d(p B ) = Mp B = = d dx p(x) = Φ B(d(p B )) = Φ B ( ( ) T ) = 51x 2 + 4x Roger Burkhardt [email protected] Lineare Algebra 1 367/409
368 Lineare Abbildungen Kern und Bild Vektorräume Kern und Bild Im weiteren betrachten wir zwei spezielle Vektorräume die im Zusammenhang mit linearen Abbildungen von grosser Bedeutung sind: Definition Sei f : V W eine lineare Abbildung. Dann ist Bild(f ) := {w W : v V, w = f (v)} (6) ein Untervektorraum von W (alle möglichen Bilder die vorkommen können) und Kern(f ) := {v V : f (v) = 0} (7) ein Untervektorraum von V (alle Vektoren die auf den Nullvektor abgebildet werden). Roger Burkhardt [email protected] Lineare Algebra 1 368/409
369 Lineare Abbildungen Kern und Bild f :V W V Kern f 0 Bild f 0 W Um diese beiden Vektorräume besser zu verstehen betrachten wir einige Beispiele: Roger Burkhardt [email protected] Lineare Algebra 1 369/409
370 Lineare Abbildungen Kern und Bild Beispiel Die Projektionsabbildung p xy : R 3 R 2, p xy (x, y, z) = (x, y) des Einführungsbeispiels hat als Bild die xy-ebene (also den ganzen Vektorraum), da ja jeder Vektor in diese projeziert wird. Analytisch bekommt man das Bild einer linearen Abbildung als Spaltenraum der Abbildungsmatrix: ( ) Bild(p xy ) = S(M) = S = { w R 2 : w = λ 1 ( 1 0 = ) ( 0 + λ 2 1 )} {( λ1 λ 2 ) + λ 3 ( 0 0 )} Roger Burkhardt [email protected] Lineare Algebra 1 370/409
371 Lineare Abbildungen Kern und Bild Fortsetzung: Der Kern der linearen Abbildung ist die z-achse, da diese Punkte auf den Nullpunkt abgebildet werden. Analytisch ist der Kern gleich dem Nullraum der Abbildungsmatrix (also die Lösungsmenge des homogenen linearen Gleichungssystems Mv = 0): ( ) Kern(p xy ) = null(m) = null ( ) x y z = ( 0 0 Kern(p xy ) = v R3 : v = 0 0 λ ) Roger Burkhardt [email protected] Lineare Algebra 1 371/409
372 Lineare Abbildungen Kern und Bild Beispiel Wir wollen das Bild und den Kern der Ableitungsabbildung d : V V bestimmen λ 1 Bild(d) = S(M) = S = p V : 2λ 2 3λ Dies sind Polynome höchstens zweiten Grades (λ 1 + 2λ 2 x + 3λ 3 x 2 ). λ Kern(d) = null(m) = p V : Dies sind die konstanten Polynome (p(x) = λ). Roger Burkhardt [email protected] Lineare Algebra 1 372/409
373 Lineare Abbildungen Kern und Bild Dimensionsformel In den letzten Abschnitten haben wir gesehen, dass die linearen Abbildungen eng mit den Matrizen verknüpft sind. Mit dem Dimensionsatz bei den Matrizenräumen (Kap. 5) folgt nun sofort der Dimensionssatz für die linearen Abbildungen: Theorem Sei f : V W eine lineare Abbildung und seien A = {a 1,..., a m } und B = {b 1,..., b n } Basen der endlich dimensionalen Vektorräume V und W. Im weiteren sei M die Abbildungsmatrix, so gilt: rg(m) + dim(null(m)) = m. Also gilt für die Vektorräume Bild(f ) und Kern(f ) die Dimensionsformel: dim(bild(f )) + dim(kern(f )) = m = dim(v) (8) Roger Burkhardt [email protected] Lineare Algebra 1 373/409
374 Lineare Abbildungen Kern und Bild Beispiel Für die untersuchte Projektionsabbildung p xy gilt: Beispiel dim(bild(f )) + dim(kern(f )) = m = 3 }{{}}{{} 2 1 Für die untersuchte Ableitungsabbildung d gilt: dim(bild(d)) + dim(kern(d)) = m = 4 }{{}}{{} 3 1 Mit Hilfe der Dimensionsformel können die linearen Abbildungen analog zur Analysis (injektiv, surjektiv und bijektiv) klassifiziert werden! Roger Burkhardt [email protected] Lineare Algebra 1 374/409
375 Lineare Abbildungen Kern und Bild Klassifizierung linearer Abbildungen Klassifizierung Monomorphismus Ein Monomorphismus zwischen Vektorräumen ist eine lineare Abbildung f : V W, die injektiv ist. Dies trifft genau dann zu, wenn die Spaltenvektoren der Abbildungsmatrix linear unabhängig sind, d.h. dim(kern(f )) = 0. Epimorphismus Ein Epimorphismus zwischen Vektorräumen ist eine lineare Abbildung f : V W, die surjektiv ist. Dies trifft genau dann zu, wenn die Spaltenvektoren der Abbildungsmatrix W erzeugen, d.h. dim(bild(f )) = dim(w). Roger Burkhardt [email protected] Lineare Algebra 1 375/409
376 Lineare Abbildungen Kern und Bild Klassifizierung (Fortsetzung) Isomorphismus Ein Isomorphismus zwischen Vektorräumen ist eine lineare Abbildung f : V W, die bijektiv ist. Dies trifft genau dann zu, wenn die Spaltenvektoren der Abbildungsmatrix eine Basis von W bilden, d.h. dim(kern(f )) = 0 dim(bild(f )) = dim(w). Die beiden Räume V und W bezeichnet man dann als isomorph. Endomorphismus Ein Endomorphismus zwischen Vektorräumen ist eine lineare Abbildung f : V W, bei der die Räume V und W gleich sind, also f : V V. Die Abbildungsmatrix dieser Abbildung ist eine quadratische Matrix. Roger Burkhardt [email protected] Lineare Algebra 1 376/409
377 Lineare Abbildungen Kern und Bild Klassifizierung (Fortsetzung) Automorphismus Ein Automorphismus zwischen Vektorräumen ist eine bijektive lineare Abbildung, bei der die Räume V und W gleich sind. Er ist also sowohl ein Isomorphismus als auch ein Endomorphismus. Die Abbildungsmatrix dieser Abbildung ist eine reguläre Matrix. Roger Burkhardt [email protected] Lineare Algebra 1 377/409
378 Lineare Abbildungen Verkettung von linearen Abbildungen Verkettung von linearen Abbildungen Theorem Die Verkettung zweier linearer Abbildungen f 1 : U V und f 2 : V W ist wieder eine lineare Abbildung: f 1 f 2 : U W, v f 2 (f 1 (v)) (9) f 1 f 2 U V W f 1 f 2 Roger Burkhardt [email protected] Lineare Algebra 1 378/409
379 Lineare Abbildungen Verkettung von linearen Abbildungen Beispiel Gegeben seien die beiden linearen Abbildungen f 1 : R 3 R 4 und f 2 : R 4 R 2 mit: f 1 (x, y, z) = (x + 2y 2z, 2x + y + z, x + 2y z, x 2y + 2z) f 2 (a, b, c, d) = ( 8 5 a b 4 c + d, 2a + b c + d) 5 Wir suchen die Verkettung der beiden Abbildungen f 1 f 2 : f 2 (f 1 (x, y, z)) = f 2 (x +2y 2z, 2x +y +z, x +2y z, x 2y +2z) = ( 8 5 (x + 2y 2z) ( 2x + y + z) 4 (x + 2y z) + (x 2y + 2z), 5 2(x +2y 2z)+( 2x +y +z) (x +2y z)+(x 2y +2z)) = (x, y) Die Verkettung ergibt die Projektionsabbildung p xy! Roger Burkhardt [email protected] Lineare Algebra 1 379/409
380 Lineare Abbildungen Verkettung von linearen Abbildungen Theorem Seien M 1 und M 2 die Abbildungsmatrizen der linearen Funktionen f 1 : U V und f 2 : V W, so ist das Matrizenprodukt M = M 2 M 1 die Abbildungsmatrix der Verkettung f 1 f 2 : U W. Beispiel Die Abbildungsmatrizen der beiden Abbildungen des letzten Beispiels lauten: M 1 = ( 8 M 2 = ) Roger Burkhardt [email protected] Lineare Algebra 1 380/409
381 Lineare Abbildungen Verkettung von linearen Abbildungen Fortsetzung: Die Abbildungsmatrix der Verkettung lautet somit: ( 8 M = M 2 M 1 = = ( ) Im folgenden beschränken wir uns auf Isomophismen (bijektive Abbildungen). Ein Isomorphismus f : V W besitzt eine Umkehrabbildung f 1 : W V, so das folgendes gilt: f f 1 = id V bzw. f 1 f = id W. Dabei ist id die identische Abbildung, welche jeden Vektor auf sich selbst abbildet. ) Roger Burkhardt [email protected] Lineare Algebra 1 381/409
382 Lineare Abbildungen Verkettung von linearen Abbildungen f V W f 1 Theorem Sei M die Abbildungsmatrix eines Isomorphismus f : V W, so ist die Inverse von M die Abbildungsmatrix der Umkehrfunktion f 1 : W V. Roger Burkhardt [email protected] Lineare Algebra 1 382/409
383 Lineare Abbildungen Verkettung von linearen Abbildungen Beispiel Wir wollen hier ein ausführlicheres Beispiel behandeln. Wir betrachten den Vektorraum V der Polynome höchstens zweiten Grades mit der Basis B = { 1, x, x 2}. Im weiteren sei die Abbildung L(p(x)) = (x 2 + 1) d2 dx 2 p(x) + p(x) gegeben. Zuerst zeigen wir, dass diese Abbildung linear ist: Summe: L(p 1 (x) + p 2 (x)) = (x 2 + 1) d 2 dx 2 (p 1(x) + p 2 (x)) + (p 1 (x) + p 2 (x)) = (x 2 + 1) d 2 dx 2 p 1(x) + p 1 (x) + (x 2 + 1) d 2 }{{} dx 2 p 2(x) + p 2 (x) }{{} L(p 1 (x)) L(p 2 (x)) = L(p 1 (x)) + L(p 2 (x)) Roger Burkhardt [email protected] Lineare Algebra 1 383/409
384 Lineare Abbildungen Verkettung von linearen Abbildungen Fortsetzung: Konstanter Faktor: L(λp(x)) = (x 2 + 1) d 2 (λp(x)) + (λp(x)) dx 2 = λ (x 2 + 1) d 2 p(x) + p(x) = λl(p(x)) dx 2 }{{} L(p(x)) Im weiteren suchen wir für den Basisisomorphismus Φ ( Φ((1, 0, 0) T ) = 1, Φ((0, 1, 0) T ) = x und Φ((0, 0, 1) T ) = x 2 ) die Abbildungsmatrix der linearen Abbildung L. Dazu bestimmen wir die Bilder der Basisvektoren: L(1) = (x 2 + 1) d 2 (1) + (1) = 1 dx 2 Roger Burkhardt [email protected] Lineare Algebra 1 384/409
385 Lineare Abbildungen Verkettung von linearen Abbildungen Fortsetzung: Φ 1 (L(Φ((1, 0, 0) T ))) = (1, 0, 0) T L(x) = (x 2 + 1) d 2 (x) + (x) = x dx 2 Φ 1 (L(Φ((0, 1, 0) T ))) = (0, 1, 0) T L(x 2 ) = (x 2 + 1) d 2 dx 2 (x 2 ) + (x 2 ) = 3x Φ 1 (L(Φ((0, 0, 1) T ))) = (2, 0, 3) T Die Abbildungsmatrix lautet somit: M = Roger Burkhardt [email protected] Lineare Algebra 1 385/409
386 Lineare Abbildungen Verkettung von linearen Abbildungen Fortsetzung: V L p x = x 2 1 d 2 p x p x 2 dx V B={1, x, x 2 } 1 x 3x 2 2 B={ , 1 0 0, 0 1 } R 3 R M = Roger Burkhardt [email protected] Lineare Algebra 1 386/409
387 Lineare Abbildungen Verkettung von linearen Abbildungen Fortsetzung: Nun wollen wir von dieser Abbildung das Bild und den Kern bestimmen und die Abbildung entsprechend klassifizieren. Da die Abbildungsmatrix M regulär ist, gilt: dim(bild(l)) + dim(kern(l)) = = 3 = dim(v) D.h. der Kern der Abbildung hat die Dimension Null und besteht nur aus dem Nullpolynom Kern(L) = {0} (nur das Nullpolynom wird durch die Abbildung auf das Nullpolynom abgebildet!). Das Bild der linearen Abbildung ist der gesamte Vektorraum (d.h. jedes Polynom von V kommt als Funktionswert der linearen Abbildung vor!). Die lineare Abbildung ist somit ein Isomorphismus (invertierbar). Da die lineare Abbildung auf sich selbst operiert ist die Abbildung auch ein Endomorphismus und somit auch ein Automorphismus. Roger Burkhardt [email protected] Lineare Algebra 1 387/409
388 Lineare Abbildungen Verkettung von linearen Abbildungen Fortsetzung: Im weiteren suchen wir von diesem Isomorphismus die Umkehrabbildung. Dazu invertieren wir die Abbildungsmatrix: M = M 1 3 = Die entsprechende Umkehrabbildung lautet nun: L 1 (p(x)) = L 1 (a 0 + a 1 x + a 2 x 2 ) = a 0 + a 1 x + ( 2 3 a a 2)x 2 Zum Schluss suchen wir die Lösung der Differentialgleichung (x 2 + 1)y + y = x 2. Die linke Seite dieser Differentialgleichung entspricht gerade unserer linearen Abbildung L, also lässt sich die Differentialgleichung auch wie folgt schreiben: Roger Burkhardt [email protected] Lineare Algebra 1 388/409
389 Lineare Abbildungen Verkettung von linearen Abbildungen Fortsetzung: L(y) = x 2. D.h. wir suchen alle Polynome in V, welche durch die lineare Abbildung auf das Polynom x 2 abgebildet werden. Wir können dieses Problem nun mittels Matrizen lösen. Es gilt: a 0 a 1 a 2 = Multiplikation mit der inversen Abbildungsmatrix ergibt: a a 1 = = a Eine Lösung des Problems ist das Polynom p(x) = x Roger Burkhardt [email protected] Lineare Algebra 1 389/409
390 Lineare Abbildungen Geometrische Abbildungen Einführung geometrische Abbildungen Wir betrachten lineare Abbildungen T : R 2 R 2 (mit der kanonischen Basis) beschrieben durch die Matrix: ( ) a b M = c d Diese Abbildung kann auf zwei verschiedene Arten interpretiert werden: Punkte-Abbildung: Hier wird ein Punkt (x, y) auf einen Bildpunkt (ax + by, cx + dy) abgebildet: (x, y) T (x, y) = (ax + by, cx + dy) Roger Burkhardt [email protected] Lineare Algebra 1 390/409
391 Lineare Abbildungen Geometrische Abbildungen Vektor-Abbildung: Hier wird ein Vektor ( ) ax + by neuen Vektor abgebildet: cx + dy ( x y ) M ( x y ) = ( x y ( ax + by cx + dy ) auf einen ) y T x p, y p T x p, y p y w=m v x T v y v= v x v y x x Roger Burkhardt [email protected] Lineare Algebra 1 391/409
392 Lineare Abbildungen Geometrische Abbildungen Wichtige geometrische Abbildungen Im weiteren interpretieren wir die Abbildung als Operationen auf Punkten des zweidimensionalen Raumes. Dazu wenden wir die Abbildungen auf die Ortsvektoren zu den Punkten an. Wir untersuchen einige wichtige Abbildungen. Nullabbildung Sei M die Nullmatrix, so werden alle Punkte des zweidimensionalen Raumes durch die Abbildung auf den Nullpunkt (Ursprung) abgebildet! M = ( ) ( x, M y ) = ( ) ( x y ) = ( 0 0 ) Roger Burkhardt [email protected] Lineare Algebra 1 392/409
393 Lineare Abbildungen Geometrische Abbildungen Identität Sei M die Einheitsmatrix, so werden alle Punkte des zweidimensionalen Raumes durch die Abbildung auf sich selbst abgebildet! M = Spiegelung ( ) ( x, M y ) = ( ) ( x y ) = ( x y Hier untersuchen wir vier grundlegende Spiegelungen (an den Koordinatenachsen und an den Winkelhalbierenden der Koordinatenachsen). Möchten wir z.b. alle Punkte des zweidimensionalen Raumes an der x-achse spiegeln, so erhalten die transformierten Punkte die gleiche x-koordinate und in der neuen y-koordinate ein umgekehrtes Vorzeichen. Also: ) Roger Burkhardt [email protected] Lineare Algebra 1 393/409
394 Lineare Abbildungen Geometrische Abbildungen Spiegelung (Fortsetzung) T (x, y) = (x, y) M = ( Für die weiteren Spiegelungen kann analog vorgegangen werden: ) Spiegelung an der x-achse y x, y x T M = x, y Spiegelung an der y-achse T x, y y x, y M = 1 0 x 0 1 Spiegelung an der Geraden y=x x, y y M = 0 1 T y, x x Spiegelung an der Geraden y=-x y x, y M = T 1 0 x y, x Roger Burkhardt [email protected] Lineare Algebra 1 394/409
395 Lineare Abbildungen Geometrische Abbildungen Projektion Hier untersuchen wir die Projektionen auf die Koordinatenachsen und auf eine Gerade durch den Ursprung. Die Abbildungsmatrix bestimmt man mit den Bildern der beiden Basisvektoren. Hier für die Projektion auf eine Gerade durch den Ursprung: T (1, 0) = (cos 2 (α), cos(α)sin(α)) T (0, 1) = (sin(α)cos(α), sin 2 (α)) Die Spalten der Abbildungsmatrix als Bilder der Basisvektoren: T (x, y) = (xcos 2 (α) + ysin(α)cos(α), xcos(α)sin(α) + ysin 2 (α)) ( cos M = 2 ) (α) sin(α)cos(α) sin(α)cos(α) sin 2 (α) Roger Burkhardt [email protected] Lineare Algebra 1 395/409
396 Lineare Abbildungen Geometrische Abbildungen Projektion (Fortsetzung) Projektion auf die x-achse y x, y T x, 0 M = x Projektion auf die y-achse y T 0, y x, y M = x y Projektion auf die Geraden y=m*x x, y T m=tan xcos 2 ysin cos, xsin cos ysin 2 cos M = 2 sin cos sin cos sin 2 x Roger Burkhardt [email protected] Lineare Algebra 1 396/409
397 Lineare Abbildungen Geometrische Abbildungen Rotation Als nächstes führen wir Rotationen (im gegenuhrzeigersinn) um den Ursprung aus. Um die Abbildungsmatrix zu erhalten, betrachten wir die Bilder der Basisvektoren: T (1, 0) = (cos(α), sin(α)) T (0, 1) = ( sin(α), cos(α)) Die Spalten der Abbildungsmatrix als Bilder der Basisvektoren: T (x, y) = (xcos(α) ysin(α), xsin(α) + ycos(α)) ( ) cos(α) sin(α) M = sin(α) cos(α) Roger Burkhardt [email protected] Lineare Algebra 1 397/409
398 Lineare Abbildungen Geometrische Abbildungen Rotation (Fortsetzung) sin,cos y 0, 1 cos,sin 1, 0 x M = cos sin sin cos Roger Burkhardt [email protected] Lineare Algebra 1 398/409
399 Lineare Abbildungen Geometrische Abbildungen Streckung (Expansion) / Stauchung (Diletation) Bei der folgenden Operation betrachten wir die Auswirkung der Operation auf die Punkte eines Rechteck. Die Operation bewirkt, dass die ursprünglichen Koordinaten mit einem Skalar multipliziert werden. Dabei kann in Richtung der beiden Koordinatenachsen mit unterschiedlichen Faktoren skaliert werden. 0, k y y 0,1 1, 0 x, y k, 0 kx, ky x 0,1 0, k 2 x, y 1,0 k 1,0 0 k 2 M = k 0 0 k M = k 1 0 k 1 x, k 2 y x Roger Burkhardt [email protected] Lineare Algebra 1 399/409
400 Lineare Abbildungen Geometrische Abbildungen Scherrung Auch hier betrachten wir die Auswirkung der Operation auf die Punkte eines Rechtecks. Die Operation bewirkt, dass die Seiten des Rechtecks gegenüber den Koordinatenachsen gedreht werden. Dabei kann die Scherrung in beiden Richtungen oder in eine einzelne Richtung angewandt werden. y y y 0,1 tan,1 x y tan, y x, y 0,1 x, x tan y x, y 1, tan x y tan, x tan y tan,1 0,1 x, y 1, tan 1,0 M = 1 tan 0 1 x 1,0 1 M = 1 0 tan x x 1,0 M 1 tan = tan 1 Roger Burkhardt [email protected] Lineare Algebra 1 400/409
401 Inhaltsverzeichnis 1 Lineare Gleichungssysteme Einführung Lineare Gleichungen Matrizen Multiplikation einer Matrix mit einem Spaltenvektor Definition Lineare Gleichungsysteme Lösungsverfahren Elementare Zeilenumformungen Zeilenstufenform Rang einer Matrix Lösungsfälle Rang und lineare Gleichungssysteme Gauss scher Algorithmus Gauss scher Algorithmus Gauss-Jordan-Verfahren 2 Matrizenrechnung Rechenoperationen und Gesetze Addition und Subtraktion Multiplikation einer Matrix mit einem Skalar Matrizenmultiplikation Spezielle Matrizen Quadratische Matrizen Diagonal- und Dreiecksmatrizen Einheitsmatrizen transponierte Matrix symmetrische und schiefsymmetrische Matrizen Matrizen der elementaren Zeilenumformungen reguläre und singuläre Matrizen Inversion Definition Inverse Berechnung der inversen Gesetze für die Inverse Roger Burkhardt [email protected] Lineare Algebra 1 401/409
402 Inhaltsverzeichnis 3 Determinante Determinante und lineare Gleichungssysteme Zweireihige Determinante Cramer sche Regel Dreireihige Determinante Determinante und Permutationen Definition Berschnungsmethoden und Gesetze Determinante einer Dreiecksmatrix Elementare Zeilenumformungen und Determinanten Folgerungen und Gesetze Laplace scher Entwicklungssatz 4 Vektorräume Einführung Vektoren und Translationen Linearkombinationen und Gesetze Lineare Unabhängigkeit Definition Vektorraum Untervektorraum Lineare Hülle, Lineare Unabhängigkeit, Basis und Dimension Lineare Hülle Lineare Unabhängigkeit Basis Dimension Roger Burkhardt [email protected] Lineare Algebra 1 402/409
403 Inhaltsverzeichnis 5 Euklid sche Vektorräume Skalarprodukte Einführung Definition Standardskalarprodukt Norm und Winkel Definition Orthogonale Vektoren Orthogonale Zerlegungen Orthonormale Basen Projektion Orthogonale Zerlegung Orthonormalisierung Matrizenräume Definition Dimensionssatz Normalensystem 6 Vektorgeometrie Einführung Rechenoperationen Skalarprodukt Vektorprodukt Spatprodukt Gesetzte Geometrie Die Gerade Die Ebene Normalformen Schnittprobleme Abstandsprobleme Hesse sche Normalform Kreis und Kugel Roger Burkhardt [email protected] Lineare Algebra 1 403/409
404 Inhaltsverzeichnis 7 Lineare Abbildungen Einführung Definition Abbildungsmatrix Kern und Bild Vektorräume Kern und Bild Dimensionsformel Verkettung von linearen Abbildungen Verkettung Umkehrabbildung Geometrische Abbildungen Einführung Wichtige geometrische Abbildungen Roger Burkhardt [email protected] Lineare Algebra 1 404/409
405 Stichwortverzeichnis Stichwortverzeichnis Adjunkte, 127 Basis, 167 Determinante, 86 Ebene, 290 Euklid schen Vektorraum, 184 Standardbasis, 170 kanonische Basis, 170 Definition, 110 dreireihige, 100 einer Dreiecksmatrix, 113 elementare Produkte, 109 elementare Zeilenumformungen, 115 Gesetze, 118 Laplace scher Entwicklungssatz, 123 Regel von Sarrus, 101 und lineare Gleichungssysteme, 88 und Permutationen, 105 zweireihige, 92 Koordinatengleichung, 295 Parametergleichung, 290 Gram-Schmidt-Verfahren, 211 Orthogonale Zerlegung, 203 Orthonormale Basen, 199 Orthonormalisierung, 205 frei wählbare Variable, 6 geometrische Abbildungen, 390 Gerade, 278 Gleichung, 4 Inversion, 75 Identität, 393 Nullabbildung, 392 Projektion, 395 Rotation, 397 Scherrung, 400 Spiegelung, 393 Streckung, 399 Stauchung, 399 Koordinatengleichung, 285 Parametergleichung, 278 Absolutteil, 4 Dimension Lösungsraum, 6 Koeffizienten, 4 Lösungsmenge, 5 linear, 4 Unbekannte, 4 Berechnung, 79 Definition, 75 Gesetze, 85 Roger Burkhardt [email protected] Lineare Algebra 1 405/409
406 Stichwortverzeichnis Inversion, 75 Kreis und Kugel, 339 lineare Abbildungen, 354 Lineare Regression, 212 lineares Gleichungssystem, 11 Verfahren nach Gauss-Jordan, 81 mittels Adjunkte, 130 Abbildungsmatrix, 363 Automorphismus, 377 Bild, 368 Definition, 354 Dimensionsformel, 373 Endomorphismus, 376 Epimorphismus, 375 Homomorphismus, 354 Isomorphismus, 376 Kern, 368 Monomorphismus, 375 Umkehrabbildung, 381 Verkettung, 378 Absoltglieder, 12 Äquivalenzumformungen, 15 Cramer sche Regel, 93 dazugehörige Normalensystem, 238 eindeutiger Lösungspunkt, 23 elementare Zeilenumformungen, 15 erweiterte Koeffizientenmatrix, 12 Gauss scher Algorithmus, 33 lineares Gleichungssystem, 11 Matrix, 7 Gauss-Jordan-Verfahren, 46 homogen, 12 inhomogen, 12 Koeffizientenmatrix, 12 leere Lösungsmenge, 23 Lösungsmenge, 14 Matrizenschreibweise, 11 Näherungslösung, 238 Rang, 23 reguläres System, 23 Schnittgeraden, 29 singuläres System, 23 unendlich viele Lösungspunkte, 23 widersprüchliche Gleichung, 31 Definition, 7 Diagonalform, 46 Diagonalmatrizen, 62 Dreiecksmatrix, 63 Einheitsmatrix, 64 elementare Zeilenumformungen, 69 invertierbar, 75 Koeffizienten, 7 Kofaktor, 122 linear unabhängige Zeilen, 20 Minor, 120 nicht verschwindende Zeilen, 22 Produkt mit Spaltenvektor, 9 Roger Burkhardt [email protected] Lineare Algebra 1 406/409
407 Stichwortverzeichnis Matrix, 7 Matrizenräume, 226 Matrizenrechnung, 50 Quadratische Matrizen, 61 Rang, 20 reguläre, 74 schiefsymmetrische, 68 singuläre, 74 Spalten, 8 symmetrische, 68 Zeilen, 8 Zeilenstufenform, 18 Dimensionssatz, 232 direkte Summe, 233 Komplement, 233 Nullraum, 226 orthogonales Komplement, 234 Spaltenraum, 226 Zeilenraum, 226 Addition, 53 Falk sches Schema, 59 Gesetze Addition, 55 Gesetze Multiplikation, 60 Gleichheit von Matrizen, 52 Linearkombinationen, 56 Matrizenmultiplikation, 57 Multiplikation mit Skalar, 54 Subtraktion, 53 transponierte Matrix, 65 Normalformen, 298 Normalensystem, 238 orthogonale Vektoren, 195 Permutation, 105 Projektion, 201 Skalarprodukt, 183 Vektoren, 134 Hesse sche Normalform, 321 gerade, 108 Matrixschreibweise, 106 Transposition, 107 Tupelschreibweise, 106 ungerade, 108 Definition, 183 Komponentendarstellung, 187 Norm, 190 Standardskalarprodukt, 187 Zwischenwinkel, 190 Addition, 135 Betrag, 182 Kehrvektor, 136 Linearkombinationen, 137 Lineare Unabhängigkeit, 139 Multiplikation mit Skalar, 136 rechtwinklige, 182 Skalarprodukt, 181 Roger Burkhardt [email protected] Lineare Algebra 1 407/409
408 Stichwortverzeichnis Vektoren, 134 Vektorgeometrie, 250 Vektorraum, 132 und Translationen, 134 Zwischenwinkel, 182 Abstandsprobleme, 310 Addition, 252 Betrag, 257 Multiplikation mit Skalar, 252 Ortsvektor, 254 Schnittprobleme, 304 Skalarprodukt, 256 Spatprodukt, 267 Vektorprodukt, 262 Vektorraum, 252 Verbindungsvektor, 255 Winkel, 259 Basis, 167 Definition, 145 Dimension, 177 der Polynomfunktionen, 149 der reellen Matrizen, 148 der reellen n-tupel, 147 endlich dimensional, 177 Lineare Hülle, 157 Lineare Unabhängigkeit, 162 unendlich dimensional, 177 Untervektorraum, 150 Roger Burkhardt Lineare Algebra 1 408/409
409 Literaturverzeichnis Literaturverzeichnis H. Anton. Lineare Algebra: Einführung, Grundlagen, Übungen. Spektrum Akademischer Verlag, L. Papula. Mathematik für Ingenieure und Naturwissenschaftler Band 2. Ein Lehr- und Arbeitsbuch für das Grundstudium. Vieweg Verlag, 2001 S. Lipschutz. Lineare Algebra: Theorie und Anwendungen. McGraw-Hill Publ.Comp, Roger Burkhardt Lineare Algebra 1 409/409
Lineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit
Lineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition
Lineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 3 und lineare Gleichungssysteme und
Matrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Ferienkurs Mathematik für Physiker I Skript Teil 3 ( )
Ferienkurs Mathematik für Physiker I WS 2016/17 Ferienkurs Mathematik für Physiker I Skript Teil 3 (29032017) 1 Lineare Gleichungssysteme Oft hat man es in der Physik mit unbekannten Größen zu tun, für
Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)
Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.
8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Lineare Gleichungssysteme und Matrizen
Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x
Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist
127 Die Schritte des Gauß-Algorithmus sind nun die Folgenden: 1. Wir bestimmen die am weitesten links stehende Spalte, die Einträge 0 enthält. 2. Ist die oberste Zahl der in Schritt 1 gefundenen Spalte
5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A
133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom
Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch
Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte
Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung
5.2 Rechnen mit Matrizen
52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
4. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof Dr Streicher Dr Sergiy Nesenenko Pavol Safarik SS 010 11 15 Mai 4 Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G13 (Basistransformation) ( ) 15 05 Die lineare
Matrizen und Determinanten, Aufgaben
Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen
Determinanten. I. Permutationen
Determinanten Durch Bildung der Determinante wird einer quadratischen (! Matrix eine gewisse Zahl zuordnet. Die Determinante tritt besonders bei Fragen der Flächen- bzw. Volumsberechnung auf (siehe auch
Matrizen und Determinanten
Matrizen und Determinanten 1 Matrizen und Determinanten 1 Einführung in den Matrizenbegriff Zur Beschreibung und Lösung vieler physikalischer Probleme ist die Vektorrechnung vonnöten Durch Verwendung von
Tutorium: Diskrete Mathematik. Matrizen
Tutorium: Diskrete Mathematik Matrizen Steven Köhler [email protected] mathe.stevenkoehler.de Definition I Eine Matrix ist eine rechteckige Anordnung (Tabelle) von Elementen, mit denen man in bestimmter
Copyright, Page 1 of 5 Die Determinante
wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist
3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit
3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53
1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4
Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte
3 Lineare Gleichungen
Aufgabe 3. Man löse die lineare Gleichung a 2 x b 2 a a(b ax) b + b2 a = a, a b nach der Unbekannten x auf und diskutiere die möglichen Fälle. a 2 x b 2 a a(b ax) b + b2 a = a a b a 2 bx b 3 a 2 b + a
Lösungen Test 1 - Lineare Algebra
Name: Seite: Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Test - Lineare Algebra Dozent: R. Burkhardt Büro: 4. Klasse:. Studienjahr Semester: Datum: HS 8/9 Bemerkung Alle Aufgaben
4 Vorlesung: 21.11. 2005 Matrix und Determinante
4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer
Determinanten. I. Permutationen
Determinanten Durch Bildung der Determinante wird einer quadratischen (! Matrix eine gewisse Zahl zuordnet. Die Determinante tritt besonders bei Fragen der Flächen- bzw. Volumsberechnung auf (siehe auch
4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
6.2 Rechnen mit Matrizen
62 Rechnen mit Matrizen 62 Rechnen mit Matrizen 103 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen
Gliederung I. Motivation II. Lesen mathematischer Symbole III. Wissenschaftliche Argumentation IV. Matrizenrechnung i. Rechenoperationen mit Matrizen ii. iii. iv. Inverse einer Matrize Determinante Definitheit
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
36 2 Lineare Algebra
6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so
Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.2 Determinanten
Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.2 Determinanten Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 44 8. Lineare Algebra: 2. Determinanten Ein einführendes
5.2 Rechnen mit Matrizen
52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 95 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
FH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB 5./7. November 2008 Prof. Dr. H.-R. Metz. Matrizen 1. a m1 a m2 a m3 a mn
FH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB./7. November 2008 Prof. Dr. H.-R. Metz (Matrix) Matrizen 1 Ein System von Zahlen a ik, die rechteckig in m Zeilen und n Spalten angeordnet
3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.
Matrizenrechnung Matrix: Eine rechteckige Anordnung reeller Zahlen a ij i = 1,..., n i ; j = 1,..., m in Zeilen und Spalten. Die a ij heiÿen Elemente von A. a 11 a 12... a ij... a 1m a 21 a 22.........
Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten
Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten www.math.ethz.ch/education/bachelor/lectures/hs2014/other/mathematik1 BIOL Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
3 Matrizen und Lineare Gleichungssysteme
3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen
Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen
Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 81 Reelle Matrizen Prof Dr Erich Walter Farkas http://wwwmathethzch/ farkas 1 / 31 1 2 3 4 2 / 31 Transponierte einer Matrix 1 Transponierte
3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
Mathematik II Frühjahrssemester 2013
Mathematik II Frühjahrssemester 2013 Prof Dr Erich Walter Farkas Kapitel 7: Lineare Algebra 71 Reelle Matrizen Prof Dr Erich Walter Farkas Mathematik I+II, 71 Reelle Matrizen 1 / 31 1 2 3 4 Prof Dr Erich
Einführung in die Vektor- und Matrizenrechnung. Matrizen
Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:
Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7
Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe
05. Lineare Gleichungssysteme
05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a
Tutorium: Analysis und Lineare Algebra
Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 14.5.218 (Teil 2) 9. Mai 218 Steven Köhler [email protected] mathe.stevenkoehler.de 2 c 218 Steven Köhler 9. Mai 218 3 c 218
Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
5.4 Basis, Lineare Abhängigkeit
die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)
Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I
Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):
Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle
2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische
Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen
Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 81 Reelle Matrizen Prof Dr Erich Walter Farkas http://wwwmathethzch/ farkas 1 / 32 8 Lineare Algebra: 1 Reelle Matrizen Grundbegriffe Definition
1 Transponieren, Diagonal- und Dreiecksmatrizen
Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix
1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.
Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar
2 Matrizenrechnung und Lineare Gleichungssysteme
Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der
Hilfsblätter Lineare Algebra
Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,
Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten
Einheitsmatrix Die quadratische Einheitsmatrix I n M n,n ist definiert durch I n = 1 0 0 0 1 0 0 0 1 (Auf der Hauptdiagonalen stehen Einsen, außerhalb Nullen Durch Ausmultiplizieren sieht man I n A = A
Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014
Skript zur Vorlesung Prof. Dr.-Ing. Katina Warendorf 2. Oktober 2014 erstellt von Sindy Engel erweitert von Prof. Dr.-Ing. Katina Warendorf Inhaltsverzeichnis 1 Vektoren 4 1.1 Grundbegriffe.................................
Ökonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
Lineare Algebra. Teil III. Inhaltsangabe
Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24
Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1
Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis
3 Systeme linearer Gleichungen
3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +
Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
A wird in diesem Fall invertierbar oder regulär genannt. Beispiel
Inverse Matrizen Definition Sei A eine quadratische Matrix vom yp (n,n) Existiert zu A eine Matrix X gleichen yps mit AX = XA = E (E: (n,n) Einheitsmatrix), so nennt man X die zu A inverse Matrix, oder
( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow
LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Lineare Gleichungssysteme und Determinanten. Lineare Gleichungssysteme.2 Determinanten 3 iii 2 LINEARE GLEIHUNGSSYSTEME UND DETERMINANTEN KAPITEL
Lineare Algebra und analytische Geometrie I
Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein
3 Lineare Gleichungssysteme
3 Lineare Gleichungssysteme 3 Fortsetzung des Matrizenkalküls Als erstes beweisen wir einen einfachen Satz über den Rang von Matrizenprodukten Satz 3 (a) Für Matrizen A : Ã l m, B : Ã m n gilt rang AB
Lösungen Serie 6 (Vektorräume, Skalarprodukt)
Fachhochschule Nordwestschweiz (FHNW Hochschule für Technik Institut für Geistes- und Naturwissenschaft Lösungen Serie 6 (Vektorräume, Skalarprodukt Dozent: Roger Burkhardt Klasse: Studiengang ST Büro:
Spezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
Basiswissen Matrizen
Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)
Kapitel 9: Lineare Gleichungssysteme
Kapitel 9: Lineare Gleichungssysteme Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika (KO) Kapitel 9: Lineare Gleichungssysteme 1 / 15 Gliederung 1 Grundbegriffe
Vektoren und Matrizen
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i
Übungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.
Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische
6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
