$Id: vektor.tex,v /01/24 14:10:45 hk Exp $ $Id: cartesisch.tex,v /01/24 14:28:24 hk Exp $

Ähnliche Dokumente
$Id: vektor.tex,v /01/23 11:03:09 hk Exp $ $Id: cartesisch.tex,v /01/23 11:08:08 hk Exp $

$Id: vektor.tex,v /01/16 15:50:24 hk Exp $ $Id: cartesisch.tex,v /01/19 11:05:27 hk Exp $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: vektor.tex,v /01/21 14:35:13 hk Exp $

Lineare Algebra I (WS 13/14)

Mathematik I. Vorlesung 12. Lineare Abbildungen

β 1 x :=., und b :=. K n β m

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

(1) In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt.

Lineare Algebra I (WS 13/14)

10.2 Linearkombinationen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

1 Linearkombinationen

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

35 Matrixschreibweise für lineare Abbildungen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

Lineare Algebra I (WS 13/14)

1 Lineare Abbildungen

Kapitel 13. Lineare Gleichungssysteme und Basen

7 Vektorräume und Körperweiterungen

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Lineare Algebra. 7. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra und analytische Geometrie I

Der Rangsatz für lineare Abbildungen

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

Lineare Abbildungen und Darstellungsmatrizen

1 Eigenschaften von Abbildungen

13 Lineare Abbildungen

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9)

4. Übungsblatt zur Mathematik II für BI, MaWi, WI(BI), AngGeo

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen.

Mathematik für Anwender I

Ferienkurs Mathematik für Physiker I Skript Teil 2 ( )

Lineare Algebra I Zusammenfassung

2.4 Lineare Abbildungen und Matrizen

Kapitel II. Vektoren und Matrizen

5 Lineare Abbildungen

Übungen zu Einführung in die Lineare Algebra und Geometrie

Bestimmung der Dimension

Aufgaben zur linearen Algebra und analytischen Geometrie I

Übersicht Kapitel 9. Vektorräume

5 Lineare Abbildungen

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Übungen zu Einführung in die Lineare Algebra und Geometrie

Satz 2.8 V sei ein endlichdimensionaler euklidischer Vektorraum. Für jeden Unterraum

4 Affine Koordinatensysteme

Geometrische Deutung linearer Abbildungen

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Musterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr

Beweis. Bei (a) handelt es sich um eine Umformulierung des ersten Teils von Satz 6.2, während (b) aus dem zweiten Teil des genannten Satzes folgt.

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper.

Addition: ( 1 ; : : : ; n ) + ( 1 ; : : : ; n ) = ( ; : : : ; n + n ). Skalare Multiplikation: ( 1 ; : : : ; n ) = ( 1 ; : : : ; n ). II. Die Me

2.2 Kern und Bild; Basiswechsel

8 Lineare Abbildungen und Matrizen

LINEARE ALGEBRA II. FÜR PHYSIKER

Kapitel 3 Lineare Algebra

9.2 Invertierbare Matrizen

Lösungsskizze zur Hauptklausur Lineare Algebra I

Kapitel 11. Dimension und Isomorphie

Affine und projektive Räume

Kapitel III. Lineare Abbildungen

Projektive Räume und Unterräume

Klausur Lineare Algebra I

Lineare Algebra und analytische Geometrie I

Lineare Algebra. 1 Lineare Abbildungen

Lineare Abbildungen und Matrizen

8.2 Invertierbare Matrizen

70 IV. ENDLICH-DIMENSIONALE VEKTORRÄUME

Technische Universität München Zentrum Mathematik. Übungsblatt 7

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a

Lineare Abbildungen. i=0 c ix i n. K n K m

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

Lineare Gleichungssysteme

5.7 Lineare Abhängigkeit, Basis und Dimension

Mathematik für Anwender I

Mathematik und Logik

9 Matrizen über R und C

$Id: det.tex,v /01/13 14:27:14 hk Exp $ $Id: vektor.tex,v /01/16 12:23:17 hk Exp $

Lösbarkeit linearer Gleichungssysteme

Vektorräume. Kapitel Definition und Beispiele

13 Partielle Ableitung und Richtungsableitung

5 Der Transzendenzgrad

Definitionen. b) Was bedeutet V ist die direkte Summe von U und W? V ist direkte Summe aus U und W, falls V = U + W und U W = {0}.

Lineare Algebra und analytische Geometrie I

Unterlagen zur Vorlesung Algebra und Geometrie in der Schule: Grundwissen über Affine Geometrie. Sommersemester Franz Pauer

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

Wiederholung: lineare Abbildungen

IV.3. RANG VON MATRIZEN 81

Der Kern einer Matrix

7 Matrizen über R und C

37 Gauß-Algorithmus und lineare Gleichungssysteme

Lineare Algebra II 8. Übungsblatt

6 Symmetrische Matrizen und quadratische Formen

Grundlegende Definitionen aus HM I

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Transkript:

$Id: vektor.tex,v.7 20/0/24 4:0:45 hk Exp $ $Id: cartesisch.tex,v.3 20/0/24 4:28:24 hk Exp $ Vektorräume.5 Lineare Abbildungen Am Ende der letzten Sitzung hatten wir die sogenannten linearen Abbildungen f : V W zwischen zwei Vektorräumen eingeführt, und einige ihrer direkt aus der Definition ersichtlichen Eigenschaften aufgelistet. Insbesondere hatten wir das Bild und den Kern Bild(f := f(v = {f(x x V } Kern(f := {x V f(x = 0} einer solcgen linearen Abbildung definiert. Das Bild mißt sozusagen die Surjektivität einer linearen Abbildung, denn f ist genau dann surjektiv wenn Bild(f = W ist. Auf der anderen Seite mißt der Kern die Injektivität, in Lemma 9.(g wurde festgehalten das f genau dann injektiv ist wenn Kern(f = {0} ist. Im verbleibenden Teil dieses Abschnitts wollen wir die grundlegende Dimensionsformel herleiten, die einen Zusammenhang zwischen der Größe von Kern und Bild einer linearen Abbildung herstellt. Von besonderen Interesse werden die sogenannten Isomorphismen sein, dies sind lineare Abbildungen die zugleich surjektiv und injektiv, also bijektiv sind. Definition. (Isomorphismen von Vektorräumen Seien V, W zwei Vektorräume über K. Ein Isomorphismus von V nach W ist eine bijektive lineare Abbildung f : V W. Weiter nennen wir die Vektorräume V und W isomorph, geschrieben als V W, wenn es einen Isomorphismus von V nach W gibt. Wir kennen bereits einige Beispiele von Isomorphismen, nur dass wir diese bisher nicht so genannt haben. Ist etwa v,..., v n eine Basis von V, so ist die Koordinatenabbildung Ψ : K n V ; x n x i v i i= bijektiv und linear, also ein Isomorphismus. An diesem Beispiel kann man schön sehen, dass Isomorphismen im wesentlichen ein Übersetzungsmechanismus sind. Wollen wir irgendetwas im Vektorraum V untersuchen, so können wir dies entweder in V selbst tun, oder alles in Termen der Koordinaten bezüglich der Basis v,..., v n rechnen. Beide Sichtweisen sind völlig gleichwertig und der Isomorphismus Ψ stellt die Übersetzung zwischen ihnen her. Isomorphe Vektorräume sind also im wesentlichen gleich, und ein Isomorphismus beschreibt in welchem Sinne sie gleich sind. 2-

Wir wollen auch noch ein etwas komplizierteres Beispiel eines Isomorphismus besprechen. Bei unserer Untersuchung von Reihen in 7 hatten wir den Reihenbegriff über den Begriff der Partialsummen wieder auf Folgen zurückgeführt. Wir können uns das Bilden der Partialsummen also als eine Übersetzung zwischen Folgen und Reihen vorstellen, und dies ist in Wahrheit ein Beispiel eines Isomorphismus von Vektorräumen. Sei hierzu K {R, C} und betrachte den Vektorraum V := K N aller Folgen in K. Einen eigenen Reihenvektorraum führen wir nicht ein, wir denken uns die Reihe n=0 a n als die Folge (a n n N ihrer Summanden. Die Partialsummen sind dann die Abbildung ( n Σ : V V ; (a n n N a k Die Abbildung Σ ist linear und auch bijektiv, also ein Isomorphismus. Zum Nachweis der Bijektivität können wir gemäß 3.Lemma 3 die Umkehrabbildung hinschreiben, und diese ist durch die Differenzenabbildung : V V gegeben, die eine Folge (a n n N auf die durch { a a n a n, n, n := a 0, n = 0 gegebene Folge (a n n N abbildet. Den expliziten Nachweis dieser Behauptungen können Sie als eine Übungsaufgabe betrachten. Nach diesen Beispielen kommen wir nun zu einem allgemeinen Satz über das Verhalten von Basen und Dimension unter Isomorphismen. Lemma.0 (Grundeigenschaften von Isomorphismen Seien V, W zwei Vektorräume über K und f : V W eine lineare Abbildung. k=0 n N. (a Ist f ein Isomorphismus, so ist auch die Umkehrabbildung f Isomorphismus. : W V ein (b Sei v,..., v n eine Basis von V. Dann ist f genau dann ein Isomorphismus wenn f(v,..., f(v n eine Basis von W ist. Insbesondere ist dann auch W endlich erzeugt mit dim V = dim W. Beweis: (a Es ist nur zu zeigen, dass f : W V wieder eine lineare Abbildung ist. Seien also x, y W und λ K gegeben. Dann ist f (x+y = f (f(f (x+f(f (y = f (f(f (x+f (y = f (x+f (y und f (λx = f (λf(f (x = f (f(λf (x = λf (x, und damit ist f eine lineare Abbildung. (b Die zweite Aussage ist eine unmittelbare Folgerung der ersten Aussage, es reicht also letztere zu beweisen. 2-2

= Sei also f ein Isomorphismus. Nach Lemma 9.(c ist f(v,..., f(v n ein Erzeugendensystem von Bild(f = W, es ist also nur noch zu zeigen, dass diese Vektoren auch linear unabhängig sind. Hierzu seien λ,..., λ n K mit n i= λ if(v i = 0 gegeben. Dann ist auch ( n n f λ i v i = λ i f(v i = 0 = f(0 i= i= nach Lemma 9.(a, also ist auch n i= λ iv i = 0. Da die Vektoren v,..., v n linear unabhängig sind, folgt λ = = λ n = 0. Damit sind auch f(v,..., f(v n in W linear unabhängig. = Nun nehmen wir an, dass die Vektoren f(v,..., f(v n eine Basis von W bilden. Nach Lemma 9.(c ist dann Bild(f = f(v,..., f(v n = W, d.h. f : V W ist zumindest surjektiv. Nun sei v Kern(f ein Vektor im Kern von f, also f(v = 0. Es gibt λ,..., λ n K mit v = n i= λ iv i. Wegen ( n n λ i f(v i = f λ i v i = f(v = 0, i= i= ergibt die lineare Unabhängigkeit von f(v,..., f(v n auch λ = = λ n = 0, also v = n i= λ iv i = 0. Dies zeigt Kern(f = {0} und nach Lemma 9.(f ist f auch injektiv. Insgesamt ist f damit bijektiv, also ein Isomorphismus. Als nächstes Ziel wollen wir die schon erwähnte Dimensionsformel ansteuern. Diese wird insbesondere implizieren, dass es für eine lineare Abbildung f : V W zwischen Vektorräumen gleicher Dimension, zum Test auf Isomorphie ausreicht zu zeigen, dass f injektiv oder surjektiv ist, die andere Bedingung folgt dann automatisch. Zum Beweis der Dimensionsformel benötigen wir eine Hilfsaussage über Untervektorräume, die wir jetzt festhalten wollen. Lemma.: Seien V ein endlich erzeugter Vektorraum über K und U V ein Untervektorraum von V. Dann ist auch U endlich erzeugt mit m := dim U dim V =: n und es gibt eine Basis v,..., v n von V mit U = v,..., v m. Es ist genau dann dim U = dim V wenn U = V gilt. Beweis: Nach Korollar 7.(b ist für jedes System v,..., v r linear unabhängiger Vektoren aus U stets r n. Damit existiert ein System v,..., v m linear unabhängiger Vektoren in U der maximal möglichen Länge m n. Insbesondere sind diese Vektoren maximal linear unabhängig in U, also ist v,..., v m nach Lemma 4 eine Basis von U. Insbesondere ist U endlich erzeugt mit dim U = m n = dim V. Nach Satz 6.(c lassen sich die Vektoren v,..., v m zu einer Basis v,..., v n von V ergänzen. Es ist U = v,..., v m und im Fall m = n haben wir damit sogar U = v,..., v n = V. 2-3

Damit ist jetzt möglich die Dimensionsformel zu beweisen. Satz.2 (Dimensionsformel für lineare Abbildungen Seien V, W zwei endlich erzeugte Vektorräume über K und f : V W eine lineare Abbildung. Dann gilt dim Bild(f + dim Kern(f = dim V. Beweis: Nach Lemma 9.(e und Lemma existiert eine Basis v,..., v n von V mit Kern(f = v,..., v m wobei m = dim Kern(f ist. Wir behaupten, dass die Vektoren f(v m+,..., f(v n eine Basis des Bilds von f sind. Nach Lemma 9.(c sind die Vektoren f(v,..., f(v n ein Erzeugendensystem von Bild(f, und wegen f(v = = f(v m = 0 ist auch f(v m+,..., f(v n ein Erzeugendensystem von Bild(f. Es bleibt also nur noch die lineare Unabhängigkeit dieser Vektoren zu zeigen. Seien hierzu λ m+,..., λ n K mit n i=m+ λ if(v i = 0 gegeben. Dann ist auch ( n n f λ i v i = λ i f(v i = 0, also n i=m+ i=m+ i=m+ λ i v i Kern(f = v,..., v m. Also existieren λ,..., λ m K mit n i=m+ λ iv i = m i= λ iv i, also auch n i= λ iv i = 0. Da die Vektoren v,..., v n linear unabhängig sind, bedeutet dies λ = = λ n = 0, also insbesondere λ m+ = = λ n = 0. Damit sind die Vektoren f(v m+,..., f(v n linear unabhängig, und bilden somit eine Basis von Bild(f. Es folgt dim Bild(f = n m = dim V dim Kern(f. Korollar.3: Seien V, W zwei endlich erzeugte Vektorräume über K mit dim V = dim W und sei f : V W eine lineare Abbildung. Dann sind die folgenden Aussagen äquivalent: (a Die Abbildung f ist ein Isomorphismus. (b Die Abbildung f ist surjektiv. (c Die Abbildung f ist injektiv. 2-4

Beweis: Es reicht die Äquivalenz von (b und (c zu zeigen. Nach Lemma 9.(f und Lemma bestehen die Äquivalenzen: f ist injektiv Kern(f = {0} dim Kern(f = 0 dim V = dim Bild(f dim W = dim Bild(f W = Bild(f f ist surjektiv. 2 Der Vektorraum K n In Aufgabe (46 wird gezeigt, dass zwei endlich erzeugte Vektorräume über K {R, C} genau dann isomorph sind, wenn sie dieselbe Dimension haben. Insbesondere ist damit ein beliebiger n-dimensionaler Vektorraum V über K isomorph zum Vektorraum K n der Spaltenvektoren mit n Einträgen. In gewissen Sinne ist der K n damit der allgemeine n-dimensionale Vektorraum über K. Eine besondere Bedeutung hat natürlich der R 3 zur Beschreibung des gewöhnlichen Raums. Aber auch der R n für andere Werte von n spielt oftmals eine Rolle bei der Beschreibung räumlicher Vorgänge. Will man beispielsweise den vollständigen Zustand eines sich bewegenden Massepunktes beschreiben, so brauchen wir sowohl drei Koordinaten zur Beschreibung seiner Position als auch drei Koordinaten für seinen Geschwindigkeitsvektor, insgesamt hat man dann einen Vektor im R 6. 2. Affine Teilräume des K n Wir beginnen mit der Definition der üblichen geometrischen Objekte, wie Geraden und Ebenen. Wie wir sehen werden könnte man diese auf exakt dieselbe Weise auch in einem allgemeinen Vektorraum definieren, wir wollen uns hier aber auf den Spezialfall des Vektorraums K n beschränken. Als Startpunkt behandeln wir Ursprungsgeraden im K n, also Geraden die durch den Nullpunkt gehen. Eine solche Gerade l ist durch einen von Null verschiedenen Richtungsvektor v K n \{0} bestimmt, und die Gerade l besteht dann gerade aus den Vielfachen von v, also l = {tv t K} = v. 2-5

In anderen Worten sind die Ursprungsgeraden genau die eindimensionalen Untervektorräume des K n. Für Ebenen e durch den Ursprung erhalten wir ein ähnliches Ergebis, solche Mengen werden von zwei linear unabhängigen Richtungsvektoren u, v aufgespannt e = {tu + sv t, s K} = u, v, es handelt sich also genau um die zweidimensionalen Untervektorräume des K n. Allgemeine Geraden beziehungsweise Ebenen erhalten wir durch Verschieben der Ursprungsgeraden. Die entstehenden Teilmengen des K n sind die sogenannten affinen Teilräume eines Vektorraums. Definition 2. (Affine Teilräume eines Vektorraums Sei V ein Vektorraum über K. Eine Teilmenge A V heißt ein affiner Teilraum von V, wenn A = ist oder es einen Vektor v V und einen Teilraum U V von V mit gibt. A = v + U = {v + u u U} Ob man die leere Menge als einen affinen Teilraum betrachten will, ist weitgehend eine Geschmacksfrage und wird nicht einheitlich gehandhabt. Der Teilraum U in der Definition eines nichtleeren affinen Teilraums A eines Vektorraums V ist dabei eindeutig bestimmt. Nehme nämlich an, wir hätten zwei Teilräume U, U 2 V und zwei Aufpunkte v, v 2 V mit A = v + U = v 2 + U 2. Wegen v 2 = v 2 + 0 v 2 + U 2 = v + U ist dann v 2 v U und für jedes u U 2 gibt es wegen v 2 + u v 2 + U 2 = v + U ein u U mit v 2 + u = v + u, also auch u = u (v 2 v U. Dies zeigt U 2 U. Analog folgt auch U U 2, es ist also U = U 2. Man nennt den eindeutig bestimmten Teilraum U V die Richtung des affinen Teilraums A von V. Insbesondere können wir damit die Dimension eines affinen Teilraums A eines Vektorraums V als { dim U, wenn A = v + U mit v V, U V, dim A :=, wenn A = definieren. Hiermit definieren wir jetzt: (a Eine Gerade im K n ist ein eindimensionaler affiner Teilraum des K n, (b Eine Ebene im K n ist ein zweidimensionaler affiner Teilraum des K n, (c und eine Hyperebene im K n ist ein (n -dimensionaler affiner Teilraum des K n. Im K 2 sind also Hyperebenen und Geraden dasselbe und im K 3 sind Ebenen und Hyperebenen dasselbe. Wir gewohnt kann man eine Gerade durch einen Aufpunkt und einen Richtungsvektor angeben, und eine Ebene durch einen Aufpunkt und zwei 2-6

Richtungsvektoren. Die Richtungsvektoren sind dabei nicht eindeutig festgelegt, aber der von ihnen aufgespannte Untervektorraum ist eindeutig bestimmt, er ist ja gerade die Richtung des affinen Teilraums. Als Aufpunkt kann man dagegen einen beliebigen Punkt des affinen Teilraums nehmen, d.h. ist A ein affiner Teilraum von V mit Richtung U V und v A ein beliebiger Punkt von A, so ist A = v + U. Nach Definition eines affinen Teilraums gibt es nämlich überhaupt einen Vektor w V mit A = w + U. Wegen v A gibt es weiter einen Vektor u U mit v = w + u. Da U ein Untervektorraum von V ist, gilt u + U U und wegen u U auch u U also u + U U und somit U u + U. Dies zeigt u + U = U, und somit folgt auch A = w + U = w + u + U = v + U. Im R 3 ist der Schnitt einer Ebene und einer Geraden normalerweise ein Punkt und der Schnitt zweier Ebenen normalerweise eine Gerade. Es gibt natürlich auch Ausnahmefälle wie parallele Ebenen, was die allgemeine Situation etwas verkompliziert. Wir wollen einen Satz über das Schnittverhalten affiner Teilräume herleiten. Der Hauptteil hiervon ist in Aufgabe (47 enthalten, dort ist zu zeigen das für zwei Teilräume U, W eines endlich erzeugten Vektorraums V die Dimensionsformel dim(u V + dim(u + W = dim U + dim W gilt. Die affine Schnittdimensionsformel ist etwas komplizierter, da die Summe affiner Teilräume von ihrer Lage zueinander abhängt. Beispielsweise können sich nicht schneidende Geraden im R 3 entweder parallel oder windschief sein, im ersten Fall erzeugen sie eine Ebene und im zweiten Fall den ganzen R 3. Im oben erwähnte Normalfall haben die Richtungen der beiden Teilräume eine Summe größtmöglicher Dimension, beziehungsweise gleichwertig einen Schnitt kleinstmöglicher Dimension. Satz 2. (Schnitte affiner Teilräume Sei V ein endlich erzeugter Vektorraum über K und seien A, B V zwei affine Teilräume von V. (a Die Menge A B ist wieder ein affiner Teilraum von V. (b Ist v A B und bezeichnet U die Richtung von A und W die Richtung von B, so ist AB := v + (U + W der kleinste A und B enthaltende affine Teilraum von V. Insbesondere ist AB unabhängig vom speziell gewählten v A B. (c Ist A B, so gilt die Dimensionsformel dim(a B + dim(ab = dim A + dim B. Beweis: Ist A B =, so ist A B trivialerweise ein affiner Teilraum von V, wir können also A B annehmen. Wähle v A B. Zunächst behaupten wir, dass A B = v + (U W 2-7

gilt. Es ist v + (U W v + U = A und ebenso v + (U W B, also v + (U W A B. Nun sei umgekehrt x A B = (v + U (v + W. Dann existieren u U, w W mit x = v + u und x = v + w. Insbesondere ist u = x v = w U W, also x = v + u v + (U W. Damit ist diese Aussage bewiesen, und insbesondere ist A B ein affiner Teilraum von V mit Richtung U W. Wir kommen jetzt zu Aussage (b. Zunächst ist v+(u +W V ein affiner Teilraum von A = v+u v+(u +W und B = v+w v+(u +W. Ist andererseits C V ein beliebiger affiner Teilraum von V mit A, B C, so ist insbesondere v A B A C, also C = v + T mit einem Teilraum T V, und wegen v + U = A C = v + T und v + W = B C = v + T, sind auch U, W T, also U + W T und v + (U + W v + T = C. Damit ist (b bewiesen, und die Dimensionsformel ergibt sich jetzt mit der Dimensionsformel für Untervektorräume dim(a B+dim(AB = dim(u W +dim(u +W = dim U +dim W = dim A+dim B. Angenommen wir wollen wissen was normalerweise der Durchschnitt zweier dreidimensionaler affiner Teilräume A, B des R 5 ist. Im Regelfall ist AB = R 5 und A B, und die Dimensionsformel besagt damit dim(a B = 2 3 5 =, d.h. zwei solche Räume schneiden sich in der Regel in einer Geraden. Wir können unsere bisher erzielten Ergebnisse über lineare Gleichungssysteme jetzt in der Sprache affiner Teilräume formulieren, und erhalten den folgenden Satz. Satz 2.2 (Lösungsräume linearer Gleichungssysteme Seien K {R, C}, n, m N mit n, m und betrachte ein lineares Gleichungssystem Ax = b mit aus m Gleichungen in n Unbekannten mit Koeffizientenmatrix A K m n und rechter Seite b K m. Weiter sei r die Anzahl von Null verschiedener Zeilen nach Anwendung des Gaußsschen Eliminationsverfahrens auf A. Dann hat Ax = b entweder keine Lösung oder die Menge L := {x K n Ax = b} ist ein (n r-dimensionaler affiner Teilraum des K n, dessen Richtung die Lösungsmenge des zugehörigen homogenen linearen Gleichungssystems Ax = 0 ist. Beweis: Dies ist klar nach 9.Satz 3 und unseren Überlegungen zur Dimension des Lösungsraums eines homogenen linearen Gleichungssystems in.3. Umgekehrt ist jeder affine Teilraum des K n als Lösungsraum eines linearen Gleichungssystems mit n Unbekannten darstellbar. Für den leeren affinen Teilraum ist dies klar, wir betrachten also einen affinen Teilraum T K n der Dimension m mit 0 m n. Sei U K n die Richtung von T und wähle einen Aufpunkt a T. Nach.Lemma existiert eine Basis v,..., v n des K n mit U = v,..., v m. Sei C die Transformationsmatrix von der kanonischen Basis e,..., e n des K n zur Basis v,..., v n. Ein Vektor v K n liegt genau dann in U wenn die hinteren n m Koordinaten von v bezüglich der Basis v,..., v n gleich Null sind. Ist also A die aus den unteren m n Zeilen von C 2-8

bestehende (n m n Matrix über K, so ist U genau der Lösungsraum des homogenen linearen Gleichungssystems Ax = 0. Verwenden wir dann b := Aa K n m also rechte Seite, so ist T genau der Lösungsraum von Ax = b. Das beschriebene Verfahren ist effektiv leicht durchführbar. Wir nehmen an die Richtung U des affinen Teilraums ist gegeben. Dann bestimmt man eine Basis v,..., v m von U. Ist U beispielsweise durch ein Erzeugendensystem gegeben, so wissen wir das wir nur linear abhängige Vektoren entfernen müssen bis eine Basis übrig bleibt. Im nächsten Schritt muss v,..., v m dann zu einer Basis v,..., v n des K n ergänzt werden, und nach dem Steinitzschen Austauschsatz.Lemma 5 wissen wir das wir hierbei mit Ergänzen geeigneter der e,..., e n auskommen. Die Übergangsmatrix von der Basis v,..., v n zur kanonischen Basis e,..., e n ist dann einfach die Matrix C deren Spalten die Vektoren v,..., v n sind, und die gesuchte Übergangsmatrix von der Basis e,..., e n zur Basis v,..., v n ist die inverse Matrix C. Als ein konkretes Beispiel betrachten wir den zweidimensionalen affinen Teilraum T = 0 + 2, 0 2 2 des R 4. Richtung und Aufpunkt sind hier direkt angegeben. Wegen 0 0 2 0 0 2 0 2 0 = 2 2 0 0 2 0 = 2 2 = 5 0 ist v, v 2, e, e 3 eine Basis des R 4 wobei v, v 2 die beiden Erzeuger der Richtung von T sind. Die gesuchte Übergangsmatrix erhalten wir durch Invertieren 0 0 0 2 0 2 0 0 2 0 = 0 0 2 5 5 2 0. 2 0 0 0 0 5 5 Die Koeffizientenmatrix unseres linearen Gleichungssystems besteht aus den unteren beiden Zeilen dieser Matrix, also A = ( 5 2 0 5 0 0 5 5 und die rechte Seite ist b = 5 ( 5 2 0 0 0 5 5 2-9 0 = 5 ( 6 5.

Multiplizieren wir noch die erste Gleichung mit 5, so ergibt sich das lineare Gleichungssystem 5x 2y v = 6 u + v = dessen Lösungsmenge genau der affine Teilraum T ist. 2.2 Lineare Abbildungen und Matrizen Wir wollen jetzt alle linearen Abbildungen f : K n K m explizit bestimmen. Sei A K m n eine m n Matrix über K. Für jeden Spaltenvektor x K n können wir dann das Produkt Ax K m bilden, und erhalten auf diese Weise eine Abbildung f A : K n K m ; x Ax. Diese Abbildung ist linear, denn sind x, y K n und λ K so haben wir nach den Rechenregeln der Matrixmultiplikation f A (x+y = A (x+y = Ax+Ay = f A (x+f A (y und f A (λx = A λx = λ Ax = λf A (x. Damit gehört zu jeder m n Matrix A über K eine lineare Abbildung f A K m n. Umgekehrt hat überhaupt jede lineare Abbildung f : K n K m diese Form. Sei nämlich f : K n K m eine lineare Abbildung. Für jedes i n schreiben wir dann f(e i = a i. a mi K m und bilden die m n Matrix a a n A :=....., a m a mn deren Spalten die Vektoren f(e,..., f(e n sind. Für jedes x K n rechnen wir dann f(x = f(x e + + x n e n = x f(e + + x n f(x n a a n a x + + a n x n = x. + + x n. =. a m x + + a mn x n a m a mn = Ax = f A (x, d.h. wir haben f = f A. Damit kann überhaupt jede lineare Abbildung f : K n K m durch eine m n Matrix beschrieben werden, und zwar so, dass die Spalten der Matrix genau die Bilder der kanonischen Basisvektoren e,..., e n sind. Umgekehrt ist f A (e i = Ae i für jedes i n gerade die i-te Spalte von A, wir haben also eine bijektive Entsprechung Lineare Abbildungen f : K n K m = m n-matrizen über K. 2-0

Wir wollen die nebenstehend gezeigten Beispiele linearer Abbildungen R 2 R 2 behandeln. Die Identität ist dabei nur zum Vergleich angegeben. Wir beginnen mit den Skalierungen, bei diesen werden x- und y-achse mit Faktoren a, b R gestreckt. Ist dabei a oder b negativ, so treten auch noch Spiegelungen an den Koordinatenachsen auf. Um die Matrix dieser linearen Abbildung zu sehen, müssen wir die Bilder der kanonischen Basisvektoren e, e 2 als Spalten verwenden. Dabei liegt e auf der x- Achse, wird also um den Faktor a gestreckt und hat das Bild ae. Für e 2 ergibt sich analog das Bild be 2, und wir erhalten die Matrix ( a S a,b =. b Phy I Skaliert Phy I Identisch Phy I Scherung Phy I Wir kommen zu den Scherungen längs der x-achse. Diese lassen jede zur x-achse parallele Gerade fest, und bewirken auf diesen eine Verschiebung um einen zur Höhe y proportionalen Wert. Die Proportionalitätskonstante sei dabei t R. Auf der x-achse selbst ist die Höhe 0 und es liegt überhaupt keine Verschiebung vor, d.h. e wird auf e abgebildet. Dagegen liegt e 2 in der Höhe, wird also um t in x-richtung verschoben und somit auf te + e 2 abgebildet. Die Scherungsmatrix ist damit S t = ( t Der letzte zu untersuche Abbildungstyp ist die Drehung um den Nullpunkt mit dem Winkel φ R. e v 2 2 Dies ist eine lineare Abbildung, was klar ist wenn sie etwa an die Interpretation der Addition von Vektoren in einem Parallelogram denken. Zur Bestimmung der Drehmatrix D φ müssen wir uns wieder v die Bilder der beiden Einheitsvektoren anschauen. e Für das Bild von e erhalten wir das rechts gezeigte rechtwinklige Dreieck mit Hypothenuse dessen Ankathete und Gegenkathete zum Winkel φ gerade die x- und y-koordinaten des Bildes von e sind, d.h. e wird auf cos(φe + sin(φe 2 abgebildet. Für das Bild von e 2 liegt eine ähnliche Situation vor, nur das Ankathete und Gegenkathete diesmal die y- beziehungsweise die negative x- Koordinate des Bildes sind, das Bild von e 2 ist also sin(φe + cos(φe 2. Insgesamt ergibt sich die Drehmatrix. ( cos φ sin φ D φ = sin φ cos φ 2-. Rotiert

Kommen wir zur allgemeinen Situation der Gleichheit von Matrizen und linearen Abbildungen K n K m zurück. Im Lichte dieser Korrespondenz ist es dann natürlich zu fragen wie sich Eigenschaften der linearen Abbildung in Eigenschaften der zugehörigen Matrix übersetzen. Wir wollen einige dieser Entsprechungen kurz durchgehen.. Sind A, B K m n zwei m n-matrizen über K, so können wir ihre Summe A + B bilden. Die zugehörige lineare Abbildung ist gegeben als f A+B (x = (A + B x = Ax + Bx = f A (x + f B (x, also ist f A+B = f A + f B die Summe der zugehörigen linearen Abbildungen. Entsprechend ergibt sich für jeden Skalar λ K auch f λa = λf A. 2. Nun sei zusätzlich r und betrachte Matrizen A K m n und B K n r. Dann können wir das Produkt AB dieser beiden Matrizen bilden, und erhalten eine m r-matrix. Für die zugehörige lineare Abbildung rechnen wir f AB (x = (ABx = A(Bx = f A (f B (x für jedes x K n, es ist also f AB = f A f B die Hintereinanderausführung der zugehörigen linearen Abbildungen. Dies zeigt Hintereinanderausführung linearer Abbildungen = Multiplikation von Matrizen. Tatsächlich ist diese Beobachtung der Grund dafür das die Multiplikation von Matrizen überhaupt so definiert wird, wie wir sie definiert haben. 3. Zur Einheitsmatrix gehört offenbar die identische Abbildung id K n. Kombinieren wir dies mit der Kennzeichnung der Bijektivität gemäß 3.Lemma 3 so folgt für eine quadratische Matrix A K n n f A ist Isomorphismus A ist invertierbar und in diesem Fall gilt dann f A = f A. 4. Sei A K m n. Was sind dann Kern und Bild der linearen Abbildung f A? Für das Bild erhalten wir mit.lemma 9.(c Bild(f A = f A (e,..., f A (e n = Ae,..., Ae n, d.h. das Bild von f A ist der von den Spalten von A aufgespannte Untervektorraum des K m. Kombinieren wir dies mit der Tatsache.Satz 6.(b das wir jedes Erzeugendensystem zu einer Basis ausdünnen können, so folgt dim Bild(f A = Dimension des Aufspanns der Spalten von A = Maximale Anzahl linear unabhängiger Spalten von A. 2-2

Auch den Kern können wir mit bekannten Objekten in Zusammenhang bringen. Der Kern von f A ist die Menge aller x K n mit f A (x = 0, also aller x K n mit Ax = 0. Dies bedeutet Kern(f A = Lösungsmenge des homogenen linearen Gleichungssystems Ax = 0. Auch die Dimension des Kerns können wir damit berechnen. Führen wir das Gaußsche Eliminationsverfahren mit der Matrix A durch und bezeichnen die Anzahl der am Ende übrig bleibenden, von Null verschiedenen, Zeilen wieder mit r, so wissen wir schon dass der Lösungsraum von Ax = 0 die Dimension n r hat. Damit ist auch dim Kern(f A = n r. 2-3