Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Linearkombinationen Unter einer Linearkombination versteht man in der linearen Algebra einen Vektor, der sich durch gegebene Vektoren unter Verwendung der Vektoraddition und der skalaren Multiplikation ausdrücken lässt. Linearkombinationen von unendlich vielen Elementen betrachtet man nur unter der Voraussetzung, dass in Wirklichkeit nur endlich viele hiervon in der Summe verwendet werden. Definition 1.1 (Linearkombination Es seien K ein Körper und v 1,..., v n V endlich viele Vektoren eines K Vektorraums V und W V eine nichtleere Teilmenge von V. Jeder Vektor v = n c i v i i=1 mit c i K heißt Linearkombination von v 1,...v n. Ein Vektor v heißt Linearkombination der Menge M, wenn er Linearkombination von endlich vielen Vektoren v 1,..., v n ist. In einem Vektorraum ist die Linearkombination von Vektoren mit Koeffizienten aus dem Körper des Vektorraums wieder ein Element des Vektorraums. Lassen sich alle Elemente des Vektorraums als Linearkombination aus einer Menge M darstellen, ist M ein Erzeugendensystem des Vektorraums. Die Menge aller Linearkombinationen einer Menge von Vektoren wird lineare Hülle genannt. Satz 1.1 Es sei M V eine nichtleere Teilmenge von V und M die Menge aller Linearkombinationen von M. Dann gilt M = M Eine Familie von Vektoren eines Vektorraums nennt man linear unabhängig, wenn sich der Nullvektor nur durch eine Linearkombination der Vektoren bilden lässt, in der alle Koeffizienten der Kombination Null sind. Äquivalent dazu ist, dass sich keiner der Vektoren als Linearkombination der anderen darstellen lässt. Andernfalls heißen sie linear abhängig. In diesem Fall lässt sich mindestens einer der Vektoren (aber nicht notwendigerweise jeder als Linearkombination der anderen darstellen. Definition 1.2 (Lineare Unabhängigkeit Es seien K ein Körper und V ein beliebiger K Vektorraum. Vektoren v 1,..., v n V heißen linear unabhängig, wenn der Nullvektor nur die so genannte triviale Linearkombination 0 = 0 v 1 +... + 0 v n zulässt, d.h. wenn aus 0 = n i=1 c iv i mit c i K zwingend c 1 = c 2 =... = c n = 0 folgt. Gibt es dagegen auch nichttriviale Linearkombinationen der 0, so heißen v 1,..., v n linear abhängig. Eine Teilmenge M V heißt linear unabhängig, wenn je endlich viele verschiedene Vektoren aus M linear unabhängig sind, sonst linear abhängig. 1
Um herauszufinden, ob Vektoren v 1,..., v n K m linear unhabhängig sind, bilden wir die Matrix A mit den Vektoren v i als Spalten. Dann gilt: v 1,..., v n sind linear unabhängig Rang(A = n Die Vektoren sind also genau dann linear unabhängig, wenn das homogene LGS Ax = 0 als einzige Lösung die triviale Lösung hat. Beispiele v 1 := (3, 0, v 2 := (0, 2, v 3 := (2, 3, ist ein Erzeugendensystem von R 2 denn jeder Vektor des R 2 kann als Linearkombination dieser Vektoren dargestellt werden, etwa Diese Darstellung ist aber nicht eindeutig: (x, y = ( x 3 4v 1 + ( y 2 9v 2 + 6v 3 w := (1, 0 w = 1 3 v 1 oder w = 1 2 v 3 3 4 v 2. Man versteht das Problem besser, wenn man sich klar macht, dass sich der Nullvektor als nichttriviale Linearkombination von v 1, v 2, v 3 darstellen lässt: {v 1, v 2, v 3 } sind also linear abhängig. w = 1 3 v 1 = 1 2 v 3 3 4 v 2 1 3 v 1 + 3 4 v 2 1 2 v 3 = 0 {v 1, v 2 } dagegen sind linear unabhängig, denn c 1 v 1 + c 2 v 2 = (3c 1, 2c 2 = (0, 0 c 1 = c 2 = 0 Entsprechend sind {v 1, v 3 }, {v 2, v 3 }, {v 1 }, {v 2 } und {v 3 } linear unabhängig. Im Sinne der Definition ist auch eine linear unabhängige Menge, da mit ihr keine nichttriviale Linearkombination der 0 möglich ist. Die Linearkombination v i c iv i (leere Summe setzt man üblicherweise gleich dem Nullvektor. Da jeder Vektorraum den Nullvektor enthält, gilt Lin( = {0}, d.h. das Erzeugnis der leeren Menge ist der nulldimensionale Vektorraum {0}. 2
2 Basen In der linearen Algebra ist eine Basis eine Teilmenge eines Vektorraumes, mit deren Hilfe sich jeder Vektor des Raumes eindeutig als endliche Linearkombination darstellen lässt. Die Koeffizienten dieser Linearkombination heißen die Koordinaten des Vektors bezüglich dieser Basis. Ein Element der Basis heißt Basisvektor. Ein Vektorraum besitzt im Allgemeinen verschiedene Basen und ein Wechsel der Basis erzwingt eine Koordinatentransformation. Definition 2.1 Es seien K ein Körper und V ein beliebiger K Vektorraum. Eine Teilmenge B eines K Vektorraums V heißt Basis von V, wenn gilt (1 B = V (2 B ist linear unabhängig Beispiele ist eine Basis des nulldimensionalen Vektorraums V = {0}. Für jede Zahl k Kn{0} ist {k} eine Basis des eindimensionalen arithmetischen K Vektorraumes K, denn jedes k K lässt sich als k k faches von k darstellen und {k} ist linear unabhängig. Seien v 1 := (3, 0, v 2 := (0, 2, v 3 := (2, 3. Die drei zweielementigen Mengen {v 1, v 2 }, {v 1, v 3 } und {v 2, v 3 } erzeugen den ganzen R 2 und sind somit Basen des R 2. Die einelementigen Mengen {v 1 }, {v 2 } und {v 3 } erzeugen dagegen nur echte Teilräume des R 2, sind also nicht Basen des R 2. Im arithmetischen Vektorraum K n bilden die Vektoren e 1 := (1, 0, 0,..., 0, 0, 0 e 2 := (0, 1, 0,..., 0, 0, 0. e n 1 := (0, 0, 0,..., 0, 1, 0 e n := (0, 0, 0,..., 0, 0, 1 eine Basis, die so genannte kanonische Basis oder Standardbasis. Die Vektoren e 1,..., e n heißen kanonische Einheitsvektoren des K n. Satz 2.1 Es seien K ein Körper, V ein K Vektorraum und B V. Die folgenden Aussagen sind paarweise äquivalent: (1 B ist eine Basis von V. Eine Basis ist ein linear unabhängiges Erzeugendensystems. (2 B = V, aber für jedes C B gilt C V Eine Basis ist ein minimales Erzeugendensystem 3
(3 B ist linear unabhängig, aber für jedes C B ist C linear abhängig. Eine Basis ist eine maximale linear unabhängige Menge. (4 Jeder Vektor aus V kann auf genau eine Weise als Linearkombination von B dargestellt werden. Basis ist Erzeugendensystem, das eindeutige Darstellung erlaubt. Definition 2.2 Es seien K ein Körper und V ein K Vektorraum. Besitzt V eine endliche Teilmenge E V mit E = V, so heißt V endlichdimensional, sonst unendlichdimensional. Ist ein Vektorraum V endlichdimensional, so kann man die Existenz einer Basis auch wie folgt zeigen: Man startet von oben, d.h. von dem endlichen Erzeugendensystem E, das es laut Definition des endlichdimensionalen Vektorraums gibt. Ist E linear unabhängig, hat man bereits eine Basis. Ist E linear abhängig, so wirft man unnötige Vektoren aus E raus, bis man bei einem minimalen Erzeugendensystem anlangt. Solch ein minimales Erzeugendensystem ist dann eine Basis des betrachteten Vektorraums. Satz 2.2 (Basissatz Jeder Vektorraum besitzt eine Basis. Bemerkungen: Falls V ein endliches Erzeugendensystem besitzt, so hat V auch eine Basis. Falls V ein endliches Erzeugendensystem hat, so sind alle Basen von V endlich und haben gleich viele Elemente. Satz 2.3 (Basisergänzungssatz Es seien K ein Körper, V ein K Vektorraum und A V linear unabhängig. Dann gibt es eine Basis B von V mit A B, d.h. A lässt sich zu einer Basis B von V ergänzen. Dimension eines Vektorraums In der Mathematik wird mit der Dimension ein Konzept bezeichnet, das im Wesentlichen die Anzahl der Freiheitsgrade einer Bewegung in einem bestimmten Raum bezeichnet. Die Dimension eines Vektorraums ist gleich der Mächtigkeit einer Basis des Vektorraums. Folgende Aussagen sind hierzu äquivalent: Die Dimension ist gleich der Mächtigkeit eines minimalen Erzeugendensystems. Die Dimension ist gleich der Mächtigkeit eines maximalen Systems linear unabhängiger Vektoren. Beispielsweise besitzt der geometrisch anschauliche euklidische 3 Raum die Dimension 3 (Länge, Breite, Höhe. Die euklidische Ebene hat die Dimension 2, die Zahlengerade die Dimension 1, der Punkt die Dimension 0. Allgemein hat der Vektorraum R n die Dimension n. Definition 2.3 (Dimension Es seien K ein Körper und V ein endlich erzeugter K Vektorraum mit einer Basis B = {b 1,..., b n }. Dann heißt dim(v := B = n die Dimension von V. Ist V nicht endlich erzeugt, so heißt er unendlichdimensional. In diesem Fall schreibt man dim(v = 4
Beispiele Es ist dim({0} = 0, denn die Basis von {0} hat 0 Elemente. Es ist dim(k n = n, denn die kanonische Basis {e 1,..., e n } hat n Elemente. Für einen endlich erzeugten Vektorraum und seinen Unterraum gilt: Satz 2.4 Es seien K ein Körper und V ein endlich erzeugter K Vektorraum, also dim(v <. Für jeden Unterraum U von V gilt dann (1 dim(u dim(v (2 Ist dim(u = dim(v, so gilt U = V Bemerkungen: Die Darstellung eines jeden Vektors x V bezüglich eine Basis B von V ist eindeutig. Ist insbesondere V endlichdimensional und B = {b 1,..., b n } eine Basis von V, so kann man jedes v V darstellen in der Form n v i b i mit v 1,..., v n K. i=1 Für eine fest vereinbarte Reihenfolge der Basisvektoren ist also jedes v V eindeutig festgelegt durch das zugehörige n Tupel (v 1,..., v n K n. Um die Reihenfolge der Basisvektoren deutlich zu machen, schreibt man auch B = (b 1,..., b n und spricht von einer geordneten Basis von V. Wir wollen nun mithilfe des Dimensionsbegriffs den bisher schwammig eingeführten Begriff des Rangs einer Matrix sauber definieren. Sei also A K m n eine beliebige Matrix, dann erzeugen die Zeilenvektoren z 1,..., z m der Matrix A den so genannten Zeilenraum von A: Z(A := Lin(z 1,..., z m K n Führt man nun eine der bekannten elementaren Zeilenumformungen an der Matrix aus, so bleiben die Zeilen der Matrix ein Erzeugendensystem des Zeilenraums Z(A. Somit kann man das Gauß-Verfahren als Übergang von dem ursprünglich gegebenen Erzeugendensystem des Zeilenraums zu einer Basis des Zeilenraums interpretieren, denn die Zeilenstufenform am Ende des Umformungsprozesses ist ein minimales Erzeugendensystem und somit eine Basis. Die lineare Unabhängigkeit der verbleibenden Zeilen sieht man auch direkt. Bisher war der Rang der Matrix A die Anzahl der Zeilen in einer Zeilenstufenform der Matrix A gewesen, wobei eben nicht klar war, ob diese Zahl überhaupt eindeutig bestimmt ist. Mit dieser Überlegung kann man jetzt den Rang einer Matrix sauber definieren: Definition 2.4 Es seien K ein Körper und A K m n. Der Rang der Matrix A, i.z. Rang(A, ist Rang(A := dim(z(a 5
Analog kann das auch für den Spaltenrang definiert werden, wobei die Dimension des Zeilenrangs gleich der Dimension des Spaltenrangs ist. Bemerkung: Es seien v 1,..., v n V paarweise verschieden und B = {v 1,..., v n }. Dann gelten B ist eine Basis von V dim(v = n und B ist linear unabhängig dim(v = n und V = B falls n < dim(v, so folgt V B falls n > dim(v, so ist B linear abhängig. 6
3 Lineare Abbildungen Eine lineare Abbildung ist in der linearen Algebra ein wichtiger Typ von Abbildung zwischen zwei Vektorräumen über demselben Körper. Bei einer linearen Abbildung ist es unerheblich, ob man zwei Vektoren zuerst addiert und dann deren Summe abbildet oder zuerst die Vektoren abbildet und dann die Summe der Bilder bildet. Gleiches gilt für die Multiplikation mit einem Skalar aus dem Grundkörper. Man spricht davon, dass eine lineare Abbildung mit den Verknüpfungen Vektoraddition und skalarer Multiplikation verträglich ist. Es handelt sich somit bei der linearen Abbildung um einen Homomorphismus (strukturerhaltende Abbildung zwischen Vektorräumen. Definition 3.1 (Homomorphismus Es seien K ein Körper und V, W zwei K Vektorräume. Eine Abbildung f : V W heißt linear oder Vektorraum-Homomorphismus, wenn gilt (1 f(v 1 + v 2 = f(v 1 + f(v 2 für alle v 1, v 2 V (2 f(kv = kf(v für alle v V und k K. Die Menge aller linearen Abbildungen von V nach W wird mit Hom(V, W bezeichnet. Beispiele: Es seien K ein Körper und V, W zwei K Vektorräume. Die sogenannte Nullabbildung ist linear: { V W f : v 0 Es sei V = C (R, R der Vektorraum der unendlich oft differenzierbaren Abbildungen f von R in R. Dann ist { V V ϕ : f d dx f eine lineare Abbildung. Es seien S und T Mengen mit S T. Weiterhin sei V der Vektorraum aller Abbildungen von T in einen Körper K, also V = K T und analog W = K S. Weiterhin seien f V, also f : T K und { S K f S : x f(x die Restriktion von f auf S. Dann ist { V W ϕ : f f s eine lineare Abbildung. 7
Kern Der Kern einer Abbildung dient in der Algebra dazu anzugeben, wie stark die Abbildung von der Injektivität abweicht. Dabei ist die genaue Definition abhängig davon, welche algebraischen Strukturen betrachtet werden. So besteht beispielsweise der Kern einer linearen Abbildung f : V W zwischen Vektorräumen V und W aus denjenigen Vektoren in V, die auf den Nullvektor in W abgebildet werden; er ist also die Lösungsmenge der homogenen linearen Gleichung f(x = 0 und wird hier auch Nullraum genannt. In diesem Fall ist f genau dann injektiv, wenn der Kern nur aus dem Nullvektor in V besteht. Definition 3.2 (Kern Kern(f := f 1 ({0} Satz 3.1 Es seien K ein Körper, V, W zwei K Vektorräume und f Hom(V, W. Dann gilt: Kern(f ist ein Untervektorraum von V. f ist injektiv Kern(f = {0} Der Kern eines Gruppenhomomorphismus enthält immer das neutrale Element, der Kern einer linearen Abbildung enthält immer den Nullvektor. Enthält er nur das neutrale Element bzw. den Nullvektor, so nennt man den Kern trivial. Beispiel: Es sei V = C (R, R und ϕ : { V V f d dx f End(V. Wegen Kern(f = R {0} ist f nicht injektiv (es sind genau die Konstanten, die die Ableitung 0 haben. Da man jedes Element von C (R, R integrieren kann, besitzt jedes Element ein Urbild bzgl. ϕ, d.h. ϕ ist surjektiv. Dies kann nur in unendlich großen Mengen passieren. Die Aussage von endlichen Mengen lässt sich auch auf endlichdimensionale Vektorräume erweitern. Bild Bei einer mathematischen Funktion f ist das Bild einer Teilmenge M des Definitionsbereichs die Menge der Werte aus der Zielmenge W, die f auf M tatsächlich annimmt. Definition 3.3 (Bild Es seien K ein Körper, V, W zwei K Vektorräume und f Hom(V, W. Das Bild der linearen Abbildung f ist Bild(f := f(v W und ist ein Untervektorraum von W. Der Rang der linearen Abbildung f ist die Dimension ihres Bildraumes: Rang(f := dim(bild(f 8
Isomorphismus Definition 3.4 (Isomorphismus Eine lineare Abbildung f : V W heißt Isomorphismus, falls f bijektiv ist. Dann ist auch die Umkehrabbildung f 1 : W V ein Isomorphismus. V und W heißen isomorph, falls es einen Isomorphismus V W gibt. V = W Es gibt einen Zusammenhang zwischen den Dimensionen der Definitionsmenge, des Kerns und des Bildes einer linearen Abbildung zwischen zwei Vektorräumen: Definition 3.5 (Dimensionssatz Es seien K ein Körper, V, W zwei K Vektorräume, f Hom(V, W und dim(v <. Dann gilt dim(kern(f + dim(bild(f = dim(v Satz 3.2 Es seien K ein Körper, V und W zwei K Vektorräume und B eine Basis von V. Die Abbildung f Hom(V, W ist (1 surjektiv f(b = B falls dim(w < Rang(f = dim(w (2 injektiv Kern(f = {0} dim(kern(f = 0 f B ist injektiv und f(b linear falls dim(v < unabhängig Rang(f = dim(v (3 bijektiv f B ist injektiv und f(b W ist eine Basis von W Rang(f = dim(v = dim(w fallsdim(v,dim(w < Korollar 3.1 Der Rang einer Matrix A K m n ist die Dimension des von den Spalten aufgespannten Unterraums von K m (Zeilenrang=Spaltenrang Korollar 3.2 Es gelte dim(v = dim(w < und f : V W sei eine lineare Abbildung. Dann sind äquivalent: f ist ein Isomorphismus. f ist injektiv. f ist surjektiv. ϕ A ist ein Isomorphismus Rang(A = n. Invertieren einer Matrix Definition 3.6 (Invertierbarkeit Eine quadratische Matrix A K n n heißt invertierbar, falls es B K n n gibt mit A B = 1 n. B ist dabei eindeutig bestimmt und es gilt auch B A = 1 n. B heißt die Inverse von A und wird als B = A 1 geschrieben. Es gilt: A invertierbar A regulär. 9
Rezept zum Invertieren einer Matrix Bilde die Matrix (A 1 n K n (2n durch Anhängen der Einheitsmatrix. Wandle diese mithilfe des Gauß-Algorithmus in eine Zeilenstufenform um, so dass zusätzlich in jeder Zeile ungleich Null der erste Eintrag ungleich Null eine 1 ist. Fall 1: Die Zeilenstufenform hat die Gestalt (1 n B mit B K n n : Dann gilt AB = 1 n. Fall 2: Hat die Zeilenstufenform eine andere Gestalt, dann ist Rang(A < n, also gibt es kein B K n n mit AB = 1 n. Beispiele: Es ist ( 1 1 0 1 GL(2, R invertierbar, denn ( 1 1 0 1 ( 1 1 0 1 = 1 2 ( 1 1 0 1 1 = ( 1 1 0 1 Es ist ( i 1 1 i GL(2, C invertierbar, denn ( 1 i 1 2 1 i Lineare Fortsetzung ( i 1 1 i = 1 2 ( i 1 1 i 1 = 1 ( i 1 2 1 i Man kann lineare Abbildungen eindeutig definieren, indem man die Bilder der Basisvektoren angibt. Dies nennt man das Prinzip der linearen Fortsetzung. Definition 3.7 (Lineare Fortsetzung Es sei B = {v 1,..., v n } eine Basis von V. (a Eine lineare Abbildung ϕ : V W ist durch die Bilder der Basisvektoren v 1 eindeutig bestimmt. Ist ψ : V W eine weitere lineare Abbildung mit ϕ(v i = ψ(v i für alle i, dann ist ϕ = ψ. (b Seien w 1,..., w n W beliebig. Dann gibt es eine lineare Abbildung ϕ : V W mit ϕ(v i = w i für alle i. 10