Lineare Algebra für Biologen

Ähnliche Dokumente
K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

10.2 Linearkombinationen

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)

Kapitel 15 Lineare Gleichungssysteme

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

2 Die Algebra der Matrizen

Tutorium: Analysis und Lineare Algebra

3 Matrizenrechnung. 3. November

37 Gauß-Algorithmus und lineare Gleichungssysteme

8.2 Invertierbare Matrizen

Matrizen, Determinanten, lineare Gleichungssysteme

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

Kapitel 3 Lineare Algebra

9.2 Invertierbare Matrizen

6 Lineare Algebra. 6.1 Einführung

Lineare Algebra 1. Roger Burkhardt

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Lineare Algebra 1. Roger Burkhardt

= 9 10 k = 10

Kapitel 14 Lineare Gleichungssysteme

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Ferienkurs Mathematik für Physiker I Skript Teil 3 ( )

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

Matrizen. Spezialfälle. Eine m nmatrix ist ein rechteckiges Zahlenschema mit. m Zeilen und n Spalten der Form. A = (a ij ) =

3 Systeme linearer Gleichungen

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Lineare Gleichungssysteme

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra 1. Roger Burkhardt

2 Die Algebra der Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen

Grundlegende Definitionen aus HM I

35 Matrixschreibweise für lineare Abbildungen

2 Matrizenrechnung und Lineare Gleichungssysteme

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

7 Matrizen über R und C

Der Kern einer Matrix

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

4. Vektorräume und Gleichungssysteme

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

1 Matrizenrechnung zweiter Teil

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Ausgewählte Lösungen zu den Übungsblättern 4-5

Lineare Gleichungssystem

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

9 Lineare Gleichungssysteme

5.7 Lineare Abhängigkeit, Basis und Dimension

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Lineare Algebra und Numerische Mathematik für D-BAUG

8 Lineare Abbildungen und Matrizen

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

HM II Tutorium 5. Lucas Kunz. 22. Mai 2018

LINEARE ALGEBRA II. FÜR PHYSIKER

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

(Allgemeine) Vektorräume (Teschl/Teschl 9)

4 Matrizenrechnung. Beide Operationen geschehen also koeffizientenweise. Daher übertragen sich die Rechenregeln von K(m n, k).

5.4 Basis, Lineare Abhängigkeit

1 Transponieren, Diagonal- und Dreiecksmatrizen

Basiswissen Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen

5.2 Rechnen mit Matrizen

32 2 Lineare Algebra

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

3 Invertierbare Matrizen Die Inverse einer (2 2)-Matrix Eigenschaften invertierbarer Matrizen... 18

Übersicht Kapitel 9. Vektorräume

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Vektoren und Matrizen

Lineare Algebra und Numerische Mathematik für D-BAUG

Lösungen der Aufgaben zu Abschnitt 5.4

Technische Universität München Zentrum Mathematik. Übungsblatt 7

3 Lineare Gleichungssysteme

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lineare Gleichungssysteme

3. Übungsblatt zur Lineare Algebra I für Physiker

05. Lineare Gleichungssysteme

(Allgemeine) Vektorräume (Teschl/Teschl 9)

9 Matrizen über R und C

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

11 Lineare Gleichungssysteme

8.2 Invertierbare Matrizen

6.2 Rechnen mit Matrizen

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Mathematik für Physiker, Informatiker und Ingenieure

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Transkript:

Lineare Algebra für Biologen Stefanie Muff (Teilweise nach einem Skript von A.D. Barbour) 3. August 2012 1

2 Lineare Algebra für Biologen HS 2012 Diese Vorlesung ist eine Einführung in die lineare Algebra. In dieser Theorie studiert man systematisch Systeme linearer Gleichungen mithilfe von Vektoren und Matrizen. In den letzten Jahrzehnten hat die lineare Algebra in der Biomathematik zunehmend an Bedeutung gewonnen. Anwendungen gibt es z.b. in der Statistik (multivariate Statistik, Varianz- und Kovarianzanalyse), Populationsdynamik (z.b. Modelle für Geburts- und Sterbeprozesse) Populationsgenetik Evolutionsbiologie (z.b. Markov-Ketten zur Modellierung von DNAund Proteinevolution) Wir werden versuchen, die Theorie durch einige solcher Anwendungen aus der Biologie zu illustrieren. Anwendungen in der Statistik sind beispielsweise in den Vorlesungen Biologische Datenanalyse und Einführung in die multivariate Statistik zu finden, zahlreiche weitere Anwendungen werden in Kursen wie z.b. der Ökologie auftauchen.

INHALTSVERZEICHNIS 3 Inhaltsverzeichnis I Grundlagen 4 I.1 Vektoren und Vektorräume.................... 4 I.2 Matrizen.............................. 9 II Lineare Gleichungssysteme 17 II.1 Einführung............................ 17 II.2 Gausselimination: Ein Lösungsverfahren............ 21 III Vektor- und Matrizenrechnung 31 III.1 Anwendung: Populationsentwicklung mit Altersstruktur, Leslie- Matrizen.............................. 32 III.2 Lineare Abhängigkeit von Vektoren............... 35 III.3 Dimension von Vektorräumen.................. 42 III.4 Weitere Matrioperationen.................... 46 IV Komplee Zahlen 56 V Eigenwerte und Eigenvektoren 63 V.1 Motivation............................. 63 V.2 Das Konzept der Eigenwerte und Eigenvektoren........ 66 V.3 Eigenwertzerlegung........................ 69 V.4 Eigenwerte und Eigenvektoren berechnen............ 72 V.5 Komplee Eigenwerte / Eigenvektoren............. 81 V.6 Spezielle Matrizen......................... 86 VI Markov-Ketten eine Anwendung 94 VI.1 Einführung............................ 94 VI.2 Definitionen und Beispiel..................... 95 VI.3 Höhere Übergansmatrizen, Langzeitverhalten.......... 97

4 I GRUNDLAGEN I Grundlagen In diesem ersten Kapitel müssen wir ein wenig Vorarbeit leisten und die wichtigsten Begrifflichkeiten der linearen Algebra einführen. Vektoren, Vektorräume und Matrizen sind dabei die grundlegendsten Werkzeuge, welche wir hier besprechen, um später reibungslos vorwärts zu kommen. I.1 Vektoren und Vektorräume Der n-dimensionale Vektorraum Das Musterbeispiel eines (reellen) n-dimensionalens Vektorraumes ist der Raum R n. Am geläufigsten ist sicherlich der 3-dimensionale Raum R 3. Punkte darin lassen sich bezüglich eines Kartesischen Koordinatensystems durch einen Vektor v 1 v = v 2 v 3 beschreiben. In n Dimensionen führen wir ein entsprechendes Konzept ein. Da uns die natürliche Geometrie nicht mehr zur Hilfe kommt, wenn n > 3 gilt, müssen wir stets mindestens nachprüfen, ob unsere allgemeinen abstrakten Definitionen und Regeln mit der Geometrie zusammen passen. Definition: Ein n-dimensionaler reeller Vektor Zahlen v 1 v 2 v =.. v n v ist ein n-tupel reeller Die v i R sind die Komponenten von v. Geometrische Veranschaulichung für n = 2 Punkte der Ebene n = 3 Punkte des 3-dim Raumes n = 4?

I.1 Vektoren und Vektorräume 5 Beispiel: In einer Tierpopulation sei v 1 = Anteil der Tiere mit Alter 1 v 2 = Anteil der Tiere mit 1 < Alter 2 v 3 = Anteil der Tiere mit 2 < Alter 3 v 4 = Anteil der Tiere mit Alter > 3 Der 4-dim. Vektor v 1 v = v 2 v 3 v 4 beschreibt die Altersverteilung der Tierpopulation. Nebenbei bemerkt, handelt es sich hier sogar um einen speziellen Vektor, einen sogenannten Wahrscheinlichkeitsvektor, weil alle Eintr ge 0 und i v i = 1. Dies ist aber momentan nicht relevant. Die Menge aller n-dimensionalen Vektoren v bezeichnet man als den n- dimensionalen Vektorraum R n. Wie ein Vektorraum allgemeiner definiert ist, wird weiter unten besprochen. Operationen mit Vektoren Definieren wir zunächst einige Rechenoperationen auf Vektoren. Definition: Summe: v 1 w 1 v 1 + w 1 v 2 v + w :=. + w 2. := v 2 + w 2.. v n w n v n + w n Skalare Multiplikation: λ R v 1 λv 1 λ v v 2 := λ. := λv 2.. v n λv n

6 I GRUNDLAGEN Inverse: v := ( 1) v Nullvektor 0 := 0. 0 Gleichheit von Vektoren Zwei n-dimensionale Vektoren heissen gleich, falls sie komponentenweise übereinstimmen. Damit erhält man unmittelbar eine Vektorgleichung, welche zu einem Gleichungssystem äquivalent ist: u 1 u 2... u n = v 1 v 2... v n u 1 = v 1... u n = v n Die Länge eines Vektors Definition: Die Länge oder Norm eines Vektors v R n ist definiert durch v := v 2 1 + v 2 2 +... + v 2 n. (Vgl. Pythagoras in 2- und 3-Dimensionen). Manchmal wird für v auch einfach v geschrieben. Ein Vektor der Länge 1 heisst Einheitsvektor oder normiert. Die Transponierte eines Vektors Beim Transponieren eines Vektors wird aus einem Zeilen- ein Spaltenvektor, und umgekehrt: v 1... v n T = (v 1,..., v n ), v 1 (v 1,..., v n ) T =.... v n

I.1 Vektoren und Vektorräume 7 Vektorräume allgemein Die ursprüngliche mathematische Definition eines Vektorraumes ist relativ umständlich (siehe Anhang). Wir merken uns die etwas lapidare Version für die Fälle des R n und C n, mit welchen wir uns vorwiegend beschäftigen: Definition: Sei V eine Teilmenge von K n (wobei K = R oder C) mit der Eigenschaft, dass jede Linearkombination λ 1 v (1) + λ2 v (2) +... + λr v (r), λ1,... λ r K von Elementen v (1), v (2),..., v (r) von V wieder ein Element von V ist. Dann heisst V ein reeller (K = R) bzw. kompleer (K = C) Vektorraum. Die letzte Definition besagt also, dass skalare Vielfache und Summen von Vektoren wieder Teil des Vektorraums sein müssen. Man sagt auch, ein Vektorraum ist abgeschlossen unter skalarer Multiplikation und Vektoraddition. Aus beiden Definitionen folgt insbesondere, dass ein Vektorraum den Nullvektor 0 enthält. Wir werden in dieser Vorlesung vorwiegend mit (R n, +, ) bzw. (C n, +, ) zu tun haben, wobei + die oben eingeführte Vektoraddition und die skalare Multiplikation darstellen. Den Raum C bzw. C n werden wir im Kapitel IV kennen lernen. Beispiele: R n, C n 2t Die Menge V = t t R. Prüfen Sie nach, dass es sich hierbei um einen Vektorraum t handelt.

8 I GRUNDLAGEN Das Skalarprodukt Weiter oben haben wir die skalare Multiplikation λ v eingeführt. Man kann aber auch zwei Vektoren miteinander multiplizieren. Definition: Das Skalarprodukt der Vektoren v, w R n ist die Zahl Regeln: ( v, w) := v 1 w 1 + v 2 w 2 + + v n w n (=: v w). ( v, w) = ( w, v ) ( u + v, w) = ( u, w) + ( v, w) (λ v, w) = λ( v, w) = ( v, λ w) ( v, v ) 0; ( v, v ) = 0 v = 0 v = ( v, v ). Satz 1. Für beliebige v, w R n gilt ( v, w) v w. (Cauchy-Schwarzsche Ungleichung; ohne Beweis.) Seien jetzt v, w 0. Dann gilt also wegen Satz 1 1 ( v, w) v w =: q 1. Also gibt es genau einen Winkel 0 ϕ π sodass cos ϕ = q. Definition: Der Winkel ϕ zwischen zwei Vektoren v, w R n, v 0, w 0, ist erklärt durch cos ϕ = ( v, w) v w, 0 ϕ π. v und w heissen orthogonal, falls ϕ = π 2 ist, d.h. ( v, w) = 0. [Gute Anwendung der Winkel: Beispiel 1.4.5.7, p. 447 in Batschelet, als Übung]

I.2 Matrizen 9 I.2 Matrizen Definition: Eine Matri A ist ein rechteckiges Schema von Zahlen a 11 a 12... a 1n a 21 a 22... a 2n A =.... = [a ij] 1 i m,1 j n = [a ij ] a m1 a m2... a mn Die Zahlen in diesem Schema nennt man Matri-Elemente und bezeichnet sie mit einem Zeileninde i und einem Spalteninde j als a ij. Eine Matri mit m Zeilen und n Spalten hat die Dimension oder das Format m n oder (m, n). Vektoren kann man als spezielle Matrizen auffassen, nämlich als (m, 1)- oder (1, n)-matrizen. Folgende Spezialfälle treten in der linearen Algebra häufig auf: Definitionen: Hat eine Matri gleich viele Spalten wie Zeilen (m = n), ist es eine quadratische Matri. Die Elemente der von links oben nach rechts unten verlaufenden Diagonalen der Matri (d.h. die Elemente a ij mit i = j) sind die Diagonal Elemente. Bei einer Diagonal Matri sind alle Elemente ausser den Diagonal Elementen gleich 0. Die Einheits Matri ist die Diagonal Matri, in der alle Diagonal Elemente gleich 1 sind: 1 0 0... 0 0 1 0... 0 E = E n := 0 0 1... 0,.... 0 0 0... 1 { 1 i = j oder E = [e ij ] 1 i,j n, wobei e ij = 0 sonst

10 I GRUNDLAGEN Eine Matri hat (obere) Dreiecks oder Trapezform, wenn alle Elemente unterhalb der Hauptdiagonale gleich 0 sind. Rechenoperationen für Matrizen Definition: Seien A = [a ij ], B = [b ij ] m n Matrizen, λ R. Summe: C = [c ij ] := A + B wenn c ij := a ij + b ij für alle i, j; Skalarmultiplikation: λa := [λa ij ]. N.B. Man kann nur Matrizen von gleichem Format addieren! Matrizen gleichsetzen Wie schon bei Vektoren bedeutet die Gleichheit zweier Matrizen, dass alle Elemente gleich sein müssen. Eine Gleichung für eine (m, n)-matri beinhaltet also m n Gleichungen. Matrizen transponieren Beim Transponieren einer Matri werden die Zeilen und Spalten vertauscht. Beispielsweise eine 3 2 Matri: a 11 a 12 a 21 a 22 a 31 a 32 T [ ] a11 a = 21 a 31. a 12 a 22 a 32 Das Transponieren eines Vektors ist also lediglich ein Spezialfall davon. Eine n n-matri heisst symmetrisch, falls A T = A, d.h. a ij = a ji (Spiegelsymmetrie zur Diagonalen), z.b. 1 8 9 A = 8 2 0 9 0 3 ist symmetrisch.

I.2 Matrizen 11 Weitere Regeln Es gelten die gleichen Rechenregeln wie bei Vektoren: A, B, C seien m n Matrizen, λ, µ in R. Dann gelten folgende Regeln: A + B = B + A A + (B + C) = (A + B) + C λ(a + B) = λa + λb (λ + µ)a = λa + µa (λµ)a = λ(µa) 0... 0 A + 0 = A, wobei 0 := Nullmatri :=.. 0... 0 A + ( A) = 0, wobei A := ( 1)A 1 A = A. Matrimultiplikation Die Multiplikation von Matrizen mit Vektoren bzw. von Matrizen mit Matrizen ist zentral. Damit wird es später gelingen, Gleichungssysteme in Matriund Vektorform zu bringen und damit lineare Algebra zu betreiben. Matri Vektor Man kann eine Matri mit einem Vektor multiplizieren. Dabei ist vorausgesetzt, dass der Vektor ein Spaltenvektor ist mit gleich vielen Komponenten, wie die Matri Spalten hat. Definition: Sei A eine m n Matri und = ( 1,..., n ) T ein Vektor der Länge n. Dann ist das Produkt A = y = (y 1,..., y m ) T definiert als y i = a i1 1 + a i2 2 +... + a in n = j a ij j, 1 i m. Die Einträge von y werden also als Skalarprodukt zwischen den Zeilen der Matri mit dem Vektor berechnet.

12 I GRUNDLAGEN Beispiele: 1. [ 12 11 10 9 8 7 6 5 ] 4 [ ] 3 12 4 + 11 3 + 10 2 + 9 1 2 = = 8 4 + 7 3 + 6 2 + 5 1 1 [ ] 110 70 2. 1 2 3 4 2 3 [ 1 2 ] = 1 + 2 2 3 1 + 4 2 2 1 + 3 2 Matri Matri Die Multiplikation zweier Matrizen geschieht nicht elementweise, sondern ist die logische Erweiterung der Operation Matri Vektor. (Genauer genommen ist die Multiplikation Matri Vektor sogar ein Spezialfall der Matrimultiplikation.) Definition: Sei A eine m n Matri, B eine n p Matri. Dann ist das Produkt C = [c ik ] := A B eine m p Matri definiert durch c ik = n a ij b jk = a i1 b 1k +... + a in b nk. j=1 Wir schreiben meistens AB anstatt A B. Bemerkung. Das Produkt AB ist nur dann definiert, wenn Anzahl Spalten von A = Anzahl Zeilen von B Merkregel: (m n) (n p) = m p N.B. c ik ist das Skalarprodukt des i-ten Zeilenvektors von A mit dem k-ten Spaltenvektor von B.

I.2 Matrizen 13 Beispiele: (1) A = AB = [ 2 1 ] 0 1 0 3 [ 4 ] 3 10 6 1 0 B = 2 3 3 2 2 1 0 BA = 7 2 9. 8 3 6 Also haben AB und BA unterschiedliche Formate. Das Matrizenprodukt ist also nicht kommutativ. (2) [ ] 1 2 A = 3 4 [ ] 1 2 AB = 3 4 [ ] 2 0 BA = 1 3 [ ] 2 0 B = 1 3 [ ] [ ] 2 0 4 6 = 1 3 2 12 [ ] [ 1 2 2 4 = 3 4 8 14 ]. Hier haben wir wiederum AB BA: auch bei quadratischen Matrizen ist das Matrizenprodukt nicht kommutativ! (3) [ ] 2 1 0 A = 1 0 3 [ ] 4 3 3 AB = 10 6 1 1 0 1 B = 2 3 1 3 2 0 BA nicht definiert (Format!) Es kann also passieren, dass das Vertauschen der Faktoren dazu führt, dass das Matriprodukt gar nicht mehr definiert ist.

14 I GRUNDLAGEN (4) AB = [ ] 4 1 2 4 2 3 6 = 2 3 5 1 2 [ ] 0 0 0 0 [die Zeilenvektoren von A sind orthogonal zu den Spaltenvektoren von B]. Also A 0, B 0, aber AB = 0. (5) [ ] [ ] 1 2 0 2 A =, B =, C = 2 4 3 1 [ ] [ ] 6 4 6 4 AB =, AC =. 12 8 12 8 [ ] 2 6 2 1 Hier haben wir AB = AC, aber B C. Also ist Kürzen im Allgemeinen nicht erlaubt! 1 Bemerkung: Vektor =... ist eine n 1 Matri. Das Matrizenprodukt n verallgemeinert die Operation Matri Vektor A. Regeln: Seien A, B, C Matrizen, für die folgende Operationen definiert sind (Format!), und sei λ R. { A(B + C) = AB + AC distributiv (A + B)C = AC + BC { A(BC) = (AB)C assoziativ λ(ab) = (λa)b = A(λB) (A T ) T = A (λa) T = λa T Transponierte (A + B) T = A T + B T (AB) T = B T A T

I.2 Matrizen 15 Die letzte Regel ist interessant und besagt, dass die Reihenfolge der Matrizen bei der Multiplikation vertauscht werden muss, wenn transponiert wird. Weshalb die Reihenfolge des Produkts invertiert werden muss, ist schon aus der Betrachtung des Formats ersichtlich. Bemerkung Das Skalarprodukt kannals Matriprodukt aufgefasst werden: 1 (Spalten-)Vektoren = 2... sind n 1 Matrizen; transponieren ergibt n T = [1, 2... n ], (ein Zeilenvektor, bzw. eine 1 n Matri). Eine 1 n Matri kann nun mit einer n 1 Matri (= einem Spaltenvektor der Länge n) multipliziert werden, was gleichbdeutend ist mit dem Skalarprodukt von Vektoren: (, y ) = n i y i = T y. i=1 Einheitsmatri Die Einheitsmatri E n hat folgende Eigenschaft: für jede n n Matri A gilt AE = EA = A (E ist das Einselement/Neutralelement der Matrizenmultiplikation). Z.B. für n = 3 : a 11 a 12 a 13 1 0 0 a 11 a 12 a 13 1 0 0 a 11 a 12 a 13 a 21 a 22 a 23 0 1 0 = a 21 a 22 a 23 = 0 1 0 a 21 a 22 a 23 a 31 a 32 a 33 0 0 1 a 31 a 32 a 33 0 0 1 a 31 a 32 a 33 Die Inverse einer Matri Bisher haben wir gelernt, Matrizen zu summieren und auf zwei Arten zu multiplizieren (skalar oder untereinander). Praktisch wäre es, wenn man Matrizen auch dividieren könnte, insbesondere bei der Lösung linearer Gleichungssysteme (siehe nächstes Kapitel). Für die Matridivision muss der Begriff der

16 I GRUNDLAGEN inversen Matri eingeführt werden. Auch wenn wir in diesem Kapitel solche Inversen noch nicht berechnen können, so wollen wir sie hier doch einführen und einige Charakteristiken davon kennen lernen. Definition: Eine n n Matri A heisst invertierbar, falls eine n n Matri B eistiert mit AB = BA = E, wobei E die passende Einheitsmatri ist. Diese Matri B wird A 1 getauft und heisst Inverse von A. Im Kapitel III werden wir beweisen, dass die Inverse eindeutig ist (Satz 9). Allerdings gibt es bei weitem nicht zu allen Matrizen eine Inverse. Ist eine Matri nicht quadratisch (also m n), so gibt es nie eine Inverse. Die Inverse A 1 ist also so etwas wie der Reziprokwert von A. Ersetzen wir in der obigen Definition B durch A 1 : AA 1 = A 1 A = E. Oder anders formuliert, entspricht die Divison durch die Matri A gewissermassen der Multiplikation mit deren Inversen: analog zu der Situation bei Skalaren. Beispiel [ ] 1 2 ist die Inverse von 0 3 [ ] 1 2 0 3 [ ] 1 2 3 1 = 0 3 B : A = B A 1, [ ] 1 2 3 1. Dies prüft man einfach nach: 0 3 ] [ 1 0 0 1 und [ ] 1 2 3 1 0 3 [ ] 1 2 = 0 3 [ ] 1 0 0 1 (Achtung, da die Matrimultiplikation nicht kommutativ ist, müssen wir beide Multiplikationen machen. Wir werden später aber sehen, dass es reicht, eine Seite zu rechnen (Satz 9).).

17 II Lineare Gleichungssysteme II.1 Einführung Sicherlich haben Sie in Ihrer mathematischen Ausbildung schon etliche lineare Gleichungssysteme angetroffen. Die lineare Algebra hat zum Ziel, eine systematische Lösungstheorie zu geben. Insbesondere möchten wir allgemeine Aussagen über die Struktur der Lösungsmengen erhalten. Berechnungsverfahren kennen lernen, um Lösungen zu gewinnen. Beispiele 1. Eindeutige Lösung: Zwei verschiedene Gleichungen, zwei Unbekannte 2y = 1 3 + 4y = 5 = 5 = 7 = = 7, y = 1; 5 5 hat eine eindeutig bestimmte Lösung ( ) ( y = 7/5 1/5). 2. Unendlich viele Lösungen: Zwei Gleichungen, welche aber die gleiche Information enthalten 2y = 1 3 6y = 3 (diese Gleichung kann aus der ersten 3 gewonnen werden.) = = 2t + 1, y = t; hat unendlich viele Lösungen 3. Keine Lösung 2y = 1 3 6y = 5 { ( y ) ( = 2t+1 ) } ; t R beliebig. Allgemein sieht ein lineares Gleichungssystem folgendermassen aus: a 11 1 + a 12 2 + + a 1n n = b 1 a 21 1 + a 22 2 + + a 2n n = b 2 (S).... a m1 1 + a m2 2 + + a mn n = b m t

18 II LINEARE GLEICHUNGSSYSTEME Die Koeffizienten a ij, b i R sind bekannt, gesucht sind 1,... n. Das lineare Gleichungssystem (S) besteht aus m Gleichungen in n Unbekannten und heisst homogen, falls b 1 = b 2 =... = b n = 0, andernfalls inhomogen. Eine Lösung von (S) ist ein Vektor dessen Komponenten (S) erfüllen. 1 2., n Woran sieht man denn nun einem Gleichungssystem an, wie viele Lösungen es hat und welche? Bei zwei Gleichungen mag das ja noch von Hand entscheidbar sein, aber bei grösseren Systemen brauchen wir eine Theorie. Bis dahin müssen wir uns noch etwas gedulden und wenden uns weiteren Beispielen zu. Beispiele 2 + y + 3z = 5 y z = 4 (S) inhomogen, mit m = 2, n = 3. Zugehöriges homogenes System ist (setze alle b i gleich Null) 2 + y + 3z = 0 y z = 0. (H) Berechne zuerst Lösungen von (H). Da es nur zwei Gleichungen, aber drei Variabeln gibt, eistieren unendlich viele Lösungen und wir können beispielsweise für z eine Zahl wählen. Sei t R beliebig: z := t y = t 2 + t + 3t = 0 = 2t. 2t Die Lösungsmenge von (H): L H := t t R ist unendlich. Dank t dem zweiten Beispiel von p. 7 wissen wir, dass es sich dabei um einen Vektorraum handelt (genauer: um einen Untervektorraum des R 3 ).

II.1 Einführung 19 Geometrische Veranschaulichung: L H ist der Schnitt zweier Ebenen im 3-dim Raum = L H entspricht einer Geraden. Da L H ein Vektorraum ist, liegen Vielfache und Summen von Vektoren aus L H wieder in L H : λ y L H, λ R = λ y := λy L H z z λz y, z y z Skalares Vielfaches + L H = y + y := y + y L H z z z + z Summe der Vektoren Ausserdem gilt, dass der Nullvektor 0 0 = 0 0 ebenfalls in L H liegt. Dass es sich bei L H um einen Vektorraum handelt, ist kein Zufall, sondern gilt allgemeins für die Lösungsmengen homogener Gleichungssysteme: Satz 2. Die Lösungsmenge L H eines homogenen linearen Gleichungssystems (H) ist ein Vektorraum. Beweis Es reicht zu zeigen, dass Vielfache und Summen von Vektoren aus L H wieder in L H liegen. Skalare Multiplikation: Ist ( 1,..., n ) T eine Lösung des Gleichungssystems, dann gilt dies ebenfalls für (λ 1,..., λ n ) T : a i1 1 + + a in n = 0 = a i1 λ 1 + + a in λ n = 0.

20 II LINEARE GLEICHUNGSSYSTEME Vektoraddition: Gibt es neben der Lösung ( 1,..., n ) T noch eine zweite Lösung ( 1,..., n) T, dann ist auch ( 1 + 1,..., n + n) T eine Lösung: a i1 1 + + a in n = 0 a i1 1 + + a in n = 0 = a i1 ( 1 + 1) + + a in ( n + n) = 0. Die Lösungsmenge L H eines homogenen linearen Gleichungssystems enthält also insbesondere den Nullvektor (triviale Lösung) und ist abgeschlossen unter skalarer Multiplikation und Vektoraddition. Zurück zum Beispiel. Die inhomogene Gleichung 2 + y + 3z = 5 y z = 4 (S) hat als Lösung 0 1/2 y 0 = 4. z 0 0 Eine solche Lösung von (S) heisst Partikulärlösung oder spezielle Lösung. Addieren Sie zu dieser speziellen Lösung eine beliebige Lösung der zugehörigen homogenen Gleichung (H) 1/2 2t 1/2 2t 4 + 0 t t = 4 + t t. Behauptung: dies ist wiederum eine Lösung von (S). Test: 2(1/2 2t) + (4 + t) + 3t = 5 (4 + t) t = 4.

II.2 Gausselimination: Ein Lösungsverfahren 21 Dies ist kein Zufall, denn jede Lösung von (S) wird so erhalten. Das prüfen wir nun nach. Sei y eine andere Lösung von (S). z 0 Dann ist y y 0 eine Lösung von (H). z z 0 0 2t y y 0 = t für ein t R. z z 0 t 0 2t y = y 0 + t für ein t R. z z 0 t Satz 3. Man bekommt alle Lösungen eines inhomogenen Systems (S), indem man zu einer speziellen Lösung von (S) alle Lösungen des zugehörigen homogenen Systems (H) addiert. Beweis: Übung. II.2 Gausselimination: Ein Lösungsverfahren Jetzt beschreiben wir den Algorithmus von Gauss zur Lösung von linearen Gleichungssystemen, genannt Gausselimination, zunächst anhand von Beispielen. 1. Beispiel (S) 2y + z = 2 [2 4y + 2z = 4] 2 + y + 3z = 3 3 + 2y + 2z = 1

22 II LINEARE GLEICHUNGSSYSTEME Wir eliminieren in der 2. Gleichung, indem wir von der 2. Gleichung das 2-fache der 1. Gleichung subtrahieren: 2y + z = 2 [3 6y + 3z = 6] (S 1 ) 0 + 5y + z = 1 3 + 2y + 2z = 1. Wir eliminieren in der 3. Gleichung, indem wir von der 3. Gleichung das 3-fache der 1. Gleichung subtrahieren: 2y + z = 2 (S 2 ) 5y + z = 1 8y z = 7. [ 8y + 8 5 z = 8 ] 5 Wichtig ist die Feststellung, dass sich bei diesen Operationen die Lösungsmenge nicht verändert: L S = L S1 = L S2. Wir eliminieren y in der 3. Gleichung, indem wir von der 3. Gleichung das 8/5-fache der 2. Gleichung subtrahieren: 2y + z = 2 (S 3 ) 5y + z = 1 13 5 z = 27 5, und wieder gilt L S3 = L S2 = L S. Das System (S 3 ) lässt sich leicht lösen durch Rückwärtseinsetzen : 3. Gleichung = z = 27; 13 z einsetzen in 2. Gleichung: 5y 27 = 1 = y = 8 ; 13 13 y, z einsetzen in 1. Gleichung: 2 8 27 17 = 2 = = 13 13 Demzufolge hat (S) die eindeutige Lösung y = 1 17 8. 13 z 27 Bemerkung: Wesentlich ist, dass das Addieren eines Vielfachen einer Gleichung zu einer anderen Gleichung die Lösungsmenge nicht ändert. 13.

II.2 Gausselimination: Ein Lösungsverfahren 23 Das Verfahren lässt sich systematisieren, wenn man das Gleichungssystem in Matrischreibweise bringt. Illustriert wird dies am 2. Beispiel y + z = 1 (S) 2 + 3y + z = 0 y z = 1 Die Koeffizienten a ij sowie die Skalare auf der rechten Seite der Gleichung werden in eine Matri geschrieben: 1 1 1 1 M = 2 3 1 0. 1 1 1 1 Jetzt wird das gleiche Verfahren wie zuvor auf die einzelnen Gleichungen auf die Zeilen der Matri angewendet. Subtrahieren des 2-fachen der 1. Zeile von der 2. Zeile führt zu 1 1 1 1 M 1 = 0 5 1 2. 1 1 1 1 Subtrahieren der 1. Zeile von der 3. Zeile führt zu 1 1 1 1 M 2 = 0 5 1 2. 0 0 2 2 Das zu M 2 gehörende Gleichungssystem y + z = 1 5y z = 2 2z = 2 ist wiederum gestaffelt, so dass die Lösung durch Rückwärts einsetzen errechnet werden kann: z = 1 5y 1 = 2 = y = 1/5 ( 1/5) + 1 = 1 = = 1/5.

24 II LINEARE GLEICHUNGSSYSTEME 1/5 Lösung: y = 1/5. z 1 Nicht immer verläuft das Verfahren so reibungslos, wie wir hier sehen: 3. Beispiel y z = 1 (S) + y + z = 2 y z = 1 0 1 1 1 M = 1 1 1 2 1 1 1 1 Problem: Kann durch Subtrahieren eines Vielfachen der 1. Zeile die Einträge a 21 und a 31 nicht gleichzeitig zu Null machen. Lösung: Vertausche die ersten beiden Zeilen. Beachte: Die Reihenfolge der Gleichungen ist für die Lösungsmenge unwesentlich. 1 1 1 2 M 1 = 0 1 1 1 1 1 1 1 jetzt weiter wie früher: 1 1 1 2 1 1 1 2 M 2 = 0 1 1 1, M 3 = 0 1 1 1. 0 2 2 3 0 0 4 1 Rückwärts einsetzen: 4z = 1 = z = 1/4 y z = y 1/4 = 1 = y = 5/4 + y + z = + 5/4 + 1/4 = 2 = = 1/2.

II.2 Gausselimination: Ein Lösungsverfahren 25 Also gilt 1/2 y = 5/4. z 1/4 Allgemeine Beschreibung der Gausselimination Gegeben ist die Koeffizientenmatri a 11 a 12... a 1n a 1,n+1 a 21 a 22... a 2n a 2,n+1 M =....., a m1 a m2... a mn a m,n+1 wobei a 1,n+1 a 2,n+1. b 1 b 2 a m,n+1 b m =. eines linearen Gleichungssystems (S). Diese Matri wird durch elementare Zeilenumformungen so lange umgeformt, bis eine Matri in Stufenform resultiert. Stufenform heisst, dass pro Zeile mindestens eine Variable weniger auftritt, also mindestens eine Variable eliminiert wird, und zwar von links nach rechts. z.b. für m = n = 4: α 11 α 12 α 13 α 14 β 1 N = 0 0 α 23 α 24 β 2 0 0 0 α 34 β 3, α 11, α 23, α 34 0. 0 0 0 0 β 4 β 4 0: dann ist das System unlösbar. β 4 = 0: bekomme Lösungen durch Rückwärtseinsetzen. Elementare Zeilenumformungen sind Vertauschen von Zeilen Multiplikation aller Elemente einer Zeile mit einem Faktor (ausser 0) Addition oder Subtraktion des Vielfachen einer Zeile zu einer anderen Zeile.

26 II LINEARE GLEICHUNGSSYSTEME Weil es sich bei den elementaren Zeilenumformungen immer um Operationen handelt, welche die Lösungsmenge eines Gleichungssystem nicht verändern, hat das zu M gehörende Gleichungssystem die gleiche Lösungsmenge wie das zu N gehörende. Aber aus N lassen sich die Lösungen leicht ablesen. Fall 1. a 11 0. Subtrahieren Sie das (a i1 /a 11 )-fache der 1. Zeile von der i-ten Zeile, für i 2. D.h. a ij = a ij a i1 a 11 a 1j für 2 i m, 1 j n + 1, und a 1j = a 1j. Sie erhalten die neue Matri a 11 a 12... a 1n a 1,n+1 M 0 a 22... a 2n a 2,n+1 =...... 0 a m2... a mn a m,n+1 Arbeiten Sie weiter mit der kleineren Matri, welche aus M durch entfernen der ersten Zeile und der ersten Spalte resultiert. Fall 2. a 11 = 0. Suche ein von Null verschiedenes Element a i1 0 in der ersten Spalte. Dann vertausche die erste mit der i-ten Zeile. Arbeite wieder wie in Fall 1. Wenn die erste Spalte gleich Null ist, gibt es kein solches a i1 0. Dann streiche die erste Spalte und fahre mit der Restmatri weiter. Bemerkungen zur Stufenform der Matri In der Stufenformfängt jede Zeile mit mindestens einer Null mehr als die vorherige Zeile an. Fängt sie mit nur einer Null mehr an, ist die entsprechende Variable (diejenige, welche zur Spalte vom ersten Element gehört, welches verschieden von Null ist) eine gebundene Variable und somit durch das System bestimmt und nicht frei wählbar. Fängt sie mit mindestens zwei Nullen mehr an, entstehen freie Variablen, welche jeden Wert annehmen dürfen. Anders gesagt, entstehen freie Variablen genau dort, wo die Stufen zu flach sind.

II.2 Gausselimination: Ein Lösungsverfahren 27 In der regulären Stufenform, wobei die i-te Zeile genau i 1 Nullwerte vorne hat, gibt es keine zu flachen Stufen. Dann gilt: Falls m n: keine freie Variablen. Falls m < n: genau n m freie Variablen. 4. Beispiel Sei 1 2 2 3 0 N = 0 0 2 1 2 0 0 0 1 1 0 0 0 0 0 die Matri auf Stufenform, welche aus einer Koeffizientenmatri M durch Gausselimination gewonnen wurde. Hier gibt es genau eine Stufe, die zu flach ausfällt, und zwar im Übergang von der 1. zur 2. Zeile. Sehen wir, wie sich dies auswirkt: 4. Zeile enthält keine Information. 3. Zeile: 4 = 1. 2. Zeile: 2 3 4 = 2; für 4 einsetzen und nach 3 auflösen, ergibt 3 = 3 2. 1. Zeile: 1 + 2 2 + 2 3 + 3 4 = 0; für 3, 4 einsetzen, ergibt 1 + 2 2 + 3 + 3 = 0. Diese Gleichung hat zwei Variabeln und darum ist eine davon frei. Man kann deshalb 2 (oder 1, aber nicht beide) beliebig wählen. Danach ist 1 aber gebunden: 1 = 2 2 6. Lösungsmenge: 2 2 6 2t 6 L M = L N = 2 3 2 R = t 3 t R. 2 2 1 1

28 II LINEARE GLEICHUNGSSYSTEME 2 ist dabei eine freie Variable. 1, 3, 4 sind gebundene Variablen (also nicht frei wählbar). Die Anzahl freier Variablen = Dimension der Lösungsmenge L M (hier =1). (Dies werden wir im kommenden Kapitel noch systematisieren.) 5. Beispiel (m = 2, n = 4) [ ] 1 1 1 3 1 N = 0 0 0 2 1 Gebundene Variablen, 1, 4 : freie Variablen, 2, 3. 2. Zeile: 2 4 = 1 4 = 1/2 1. Zeile 1 + 2 + 3 3 4 = 1; 4 einsetzen ergibt 1 + 2 + 3 3/2 = 1 und damit eine Gleichung mit drei Unbekannten. Darum müssen zwei der drei Variablen frei sein, hier 2 und 3 : = 1 = 2 3 + 1/2. Also gilt 2 3 + 1 2 L N = 2 3 2, 3 R. 1 2 Die Lösungsmenge ist 2-dimensional (zwei freie Variablen). Allgemeines Vorgehen Falls das Gleichungssystem Lösung(en) hat, führt das Vorgehen der letzten Beispiele immer zum Ziel: die Lösungsmenge des zu einer Stufenmatri N gehörenden Systems bekommt man durch Rückwärtseinsetzen, beginnend mit der letzten Zeile. Die freien Variablen sind dabei beliebig wählbar und die gebundenen Variablen werden durch die freien ausgedrückt.

II.2 Gausselimination: Ein Lösungsverfahren 29 Falls das Gleichungssystem keine Lösung hat, ist dies aus der Stufenform ebenfalls sofort ersichtlich. Dann gibt es eine Zeile, welche aus n Nullwerten gefolgt von einem Element ungleich Null besteht. Satz 4. Ein homogenes lineares Gleichungssystem mit n Variablen in m Gleichungen mit n > m besitzt stets eine von Null verschiedene Lösung. Beweis: Transformieren Sie die Matri des Systems mittels Gausselimination auf Stufenform N. Beim Rückwärtseinsetzen gibt es mehr als nur die Nulllösung genau dann, wenn es freie Variablen gibt, da man diese ungleich Null wählen kann. Also muss man nur zeigen, dass es für n > m mindestens eine freie Variable gibt. Aber Anzahl gebundene Variablen m (pro Zeile von N gibt es höchstens eine gebundene Variable), und m < n. Also gibt es mindestens n m freie Variablen. Satz 5. a) Ein lineares Gleichungssystem mit n Variablen in m = n Gleichungen und mit regulärer Stufenform N besitzt stets eine eindeutige Lösung. b) Dies gilt für jedes System von n linearen Gleichungen in n Variablen, zu welchem das dazugehörende homogene System nur die Nulllösung besitzt. Beweis: Aus der Bemerkung auf p. 27 sehen wir, dass für m = n bei regulärer Stufenform alle Variablen gebunden sind. Es gibt Lösungen, da keine Zeile von N mit n Nullwerten beginnt (regulär!). Rückwärtseinsetzen ergibt also eine eindeutige Lösung. Falls ein homogenes System von n linearen Gleichungen in n Variablen nur die Nulllösung besitzt, weist seine Stufenform keine freie Variablen auf (siehe Beweis vom Satz 4). Also sind alle n Variablen gebunden: d.h. die Matri hat reguläre Stufenform. Wegen Satz 3 ist dann jede Lösung des inhomogenen Systems ebenfalls eindeutig.

30 II LINEARE GLEICHUNGSSYSTEME Beispiele Inhomogenes Gleichungssystem mit regulärer Stufenform: 2 2 2 3 4 N = 0 1 2 1 2 0 0 1 1 0 0 0 0 1 1 Das System hat nach Satz 5 eine eindeutige Lösung. Stufenform des dazu gehörenden homogenen Gleichungssystems: 2 2 2 3 0 N = 0 1 2 1 0 0 0 1 1 0 0 0 0 1 0 Gemäss Satz 5 ist also die einzige Lösung die Nullösung. Stufenform eines homogenen Systems mit zwei freien Variablen 4 und 5 : 2 2 2 3 1 0 N = 0 1 2 1 0 0 0 0 1 1 2 0 Gemäss Satz 4 hat dieses System von Null verschiedene Lösungen.

31 III Vektor- und Matrizenrechnung Bereits im Kapitel I haben wir uns mit der Vektor- und Matrizenrechnung befasst. Hier möchten wir diese Konzepte wieder aufgreifen und sie uns zur Lösung und Klassifizierung linearer Gleichungssysteme zunutze machen. Was aber haben lineare Gleichungssysteme mit Vektoren und Matrizen zu tun? Der Zusammenhang entspringt einer grundlegenden Beobachtung: Ein lineares Gleichungsstem sieht ausgeschrieben so aus: a 11 1 + a 12 2 +... + a 1n n = y 1 a 21 1 + a 22 2 +... + a 2n n = y 2... a n1 1 + a n2 2 +... + a nn n = y n und dies entspricht ja genau der Definition Matri Vektor: a 11 a 12... a 1n 1 y 1 a 21 a 22... a 2n... 2 = y 2 a n1 a n2... a nn oder kurz A = y. Dank der letzten Schreibweise tut sich zudem eine neue Sichtweisen auf Matrizen auf: die Matri A kann als Operator aufgefasst werden, der jedes auf ein y abbildet, also eine (lineare) Funktion darstellt. Wir wechseln in der linearen Algebra zwischen den Sichtweisen Lineare Gleichungssysteme Matrizen Lineare Abbildungen hin und her. Das bedeutet, dass Erkenntnisse gegenseitig auf die verschiedenen Sichtweisen übertragen werden können. Es lohnt sich also, noch einmal etwas tiefer in die Vektor- und Matrizenrechnung einzutauchen. Zur Motivation starten wir mit einer biologischen Anwendung und wenden uns in den späteren Unterkapiteln wieder der Mathematik zu.... n... y n

32 III VEKTOR- UND MATRIZENRECHNUNG III.1 Anwendung: Populationsentwicklung mit Altersstruktur, Leslie-Matrizen Dieses Modell der Populationsentwicklung mit Altersstruktur wurde 1942 von E.G. Lewis eingeführt. Annahmen (1) Population wird in n = 3 Altersklassen eingeteilt 1 = Zahl der Individuen der 1. Altersklasse 2 = Zahl der Individuen der 2. Altersklasse 3 = Zahl der Individuen der 3. Altersklasse (1 Winter bisher überlebt) (2 Winter bisher überlebt) (3 Winter bisher überlebt) (Eigentlich könnte man auch eine vierte Altersklasse einführen, 0 = Zahl der Individuen der 0. Altersklasse (0 Winter bisher überlebt); wir werden allerdings die Tiere im Vorfrühling zählen, sodass dann 0 immer gleich Null wäre.) 1 Der Vektor = 2 beschreibt also die Altersverteilung in einem Vorfrühling. 3 (2) q i = Wahrscheinlichkeit, dass ein Individuum der i-ten Altersklasse überlebt und in die nächste Altersklasse übertritt. q 3 = 0 (ma. Alter 3 Jahre) (3) f i = mittlere Anzahl Nachkommen eines Individuums der i-ten Altersklasse; hier werden nur diejenige Nachkommen dazugezählt, welche den ersten Winter überleben.

III.1 Anwendung: Populationsentwicklung mit Altersstruktur, Leslie-Matrizen33 Sei die Altersverteilung (0) = (0) 1 (0) 2 (0) 3 Altersverteilung (1) ein Jahr später? zur Zeit t = 0 bekannt. Wie ist die (1) 1 = f 1 (0) 1 + f 2 (0) 2 + f 3 (0) 3 (1) 2 = q 1 (0) 1 (1) 3 = q 2 (0) 2. Elegant geschrieben (1) = A (0), wobei f 1 f 2 f 3 A = q 1 0 0 0 q 2 0 eine 3 3 Matri ist. Eine solche Matri heisst Leslie-Matri, weil sie von P.H. Leslie erfunden wurde. Sei (k) die Altersverteilung zur Zeit k. Dann gilt ebenfalls (k+1) = A (k). 1. Beispiel: f 1 = 0, f 2 = 0, f 3 = 6 q 1 = 1/2, q 2 = 1/3 (Interpretation?) (0) 1 = (0) 2 = (0) 3 = 1200 (Anfangszustand).

34 III VEKTOR- UND MATRIZENRECHNUNG 0 0 6 1200 Entwicklung: A = 1/2 0 0, (0) = 1200 ; 0 1/3 0 1200 7200 (1) (0) = A = 600 400 2400 (2) (1) = A = 3600 200 1200 (3) (2) = A = 1200 =! (0) 1200 = 3-Jahreszyklus, die Zustände wiederholen sich periodisch. 2400 2. Beispiel: Anderer Anfangszustand (0) = 1200, gleiches A wie oben: 400 = (1) = A 2400 (0) = 1200 =! (0) 400 (0) ist ein sogenannter Gleichgewichtszustand. Alle Populationen im Verhältnis 6 : 3 : 1 befinden sich im Gleichgewichtszustand. 3. Beispiel: f 1 = 0, f 2 = 1, f 3 = 3; q 1 = 1/2, q 2 = 1/3 (0) 1 = (0) 2 = (0) 3 = 1000 k 0 1 2 3 10 20 25 (k) 1 1000 4000 1500 2500 2344 2401 2400 (k) 2 1000 500 2000 750 1250 1200 1200 (k) 3 1000 333 167 667 385 399 400 Altersstruktur strebt gegen einen Gleichgewichtszustand

III.2 Lineare Abhängigkeit von Vektoren 35 4. Beispiel: f 1 = 0, f 2 = 2, f 3 = 3; q 1 = 1/2, q 2 = 1/4 (0) 1 = (0) 2 = (0) 3 = 1000. k 0 1 2 16 17 (k) 1 1000 5000 1750 25091 28904 (k) 2 1000 500 2500 10906 12546 (k) 3 1000 250 125 2364 2726 Für grosse k ist (k) 1 : (k) 2 : (k) 3 10, 60 : 4, 61 : 1. D.h. die Altersverhältnisse sind praktisch konstant. Für grosse k ist (k+1) 1 / (k) 1 1.15, d.h. haben jährliche Bevölkerungszunahme von ca. 15% (stationäres Wachstumsverhalten). III.2 Lineare Abhängigkeit von Vektoren Wie gesagt ist unser Ziel, mithilfe von linearer Algebra biologische Probleme, wie beispielsweise das Wachstum von Populationen, besser zu verstehen. Wir müssen daher wieder zur Theorie zurück kehren. Später werden uns die obigen Beispiele wieder begegnen und wir werden unsere Erkenntnisse daran illustrieren. Definition: Sei V ein Vektorraum und v (1),..., v (r) V. Dann nennt man einen Vektor λ 1 v (1) + λ2 v (2) +... + λr v (r), λ1,... λ r R eine Linearkombination der Vektoren v (1), v (2),..., v (r). Beispiel: Im R 3 liegt ein Vektor v (3) genau dann in der von v (1) und v (2) aufgespannten Ebene, wenn v (3) = λ 1 v (1) + λ2 v (2) für λ1, λ 2 R. Dies kann man mit einem Bild gut veranschaulichen.

36 III VEKTOR- UND MATRIZENRECHNUNG Definition: Vektoren v (1), v (2),..., v (r) heissen linear abhängig, falls es eine nichttriviale Linearkombination gibt, welche 0 ergibt: λ 1 v (1) + λ2 v (2) +... + λr v (r) = 0, λ 1,..., λ r R, nicht alle λ i = 0. Andernfalls heissen v (1), v (2),..., v (r) linear unabhängig. Hinweis: Um zu verifizieren, ob eine Menge von Vektoren v (1), v (2),..., v (r) linear unabhängig ist, prüft man also, ob aus λ 1 v (1) + λ2 v (2) +... + λr v (r) = 0 stets λ 1 = λ 2 =... = λ n = 0 folgen muss (dies überprfüft man beispielsweise mit der Gausselimination, siehe Beispiel). Falls ja, dann sind diese Vektoren linear unabhängig, andernfalls linear abhängig. Beispiel: 1 0 2 (1) v = 2, v (2) = 1, v (3) = 1 linear abhängig? 0 1 3 λ 1 v (1) +λ2 v (2) +λ3 v (3) = 0 liefert homogenes lineares Gleichungssystem λ 1 + 2λ 3 = 0 (H) 2λ 1 + λ 2 + λ 3 = 0 λ 2 3λ 3 = 0 Hat (H) eine nichttriviale, d.h. 0, Lösung λ 2? λ 3 λ 1

III.2 Lineare Abhängigkeit von Vektoren 37 Gausselimination 1 0 2 0 M = 2 1 1 0 0 1 3 0 1 0 2 0 0 1 3 0 0 1 3 0 1 0 2 0 0 1 3 0 0 0 0 0 freie Variable λ 3, gebundene Variablen λ 1, λ 2 λ 2 = 3λ 3, λ 1 = 2λ 3 = es gibt nichttriviale Linearkombinationen, z.b. (λ 3 = 1) ( 2) v (1) + 3 v (2) + v (3) = 0. Also sind diese drei Vektoren linear abhängig (d.h. der eine lässt sich immer als Linearkombination der anderen schreiben). Allgemein gilt: Die Frage, ob gegebenenfalls Vektoren v (1),... v (r) R n linear unabhängig sind, führt auf ein homogenes Gleichungssystem in r Unbekannten λ 1,..., λ r. Dieses System kann mit Gausselimination gelöst werden. v (1),..., v (r) R n sind linear unabhängig genau dann, wenn keines der v (i) eine Linearkombination der anderen Vektoren ist. Beweis: Übung. Satz 6. Sind v (1),..., v (r) R n ungleich Null und paarweise orthogonal, so sind sie linear unabhängig. Beweis: Sei λ 1 v (1) + λ2 v (2) +... + λr v (r) = 0. Wir müssen zeigen, dass

38 III VEKTOR- UND MATRIZENRECHNUNG λ 1 = λ 2 = = λ r = 0 gilt. Nehmen wir das Skalarprodukt mit v (1) : 0 = ( 0, v (1) ) = (λ 1 v (1) + λ2 v (2) +... + λr v (r), v (1) ) = λ 1 ( v (1), v (1) ) +λ }{{} 2 ( v (2), v (1) ) +... + λ }{{} r ( v (r), v (1) ) }{{} =0 =0 = λ 1 = 0. = v (1) 2 0 Analog zeigt man, dass λ 2 =... = λ r = 0. Beispiel: 1 1 1 (1) v = 0, v (2) = 1, v (3) = 2 1 1 1 ( v (1), v (2) ) = 0, ( v (1), v (3) ) = 0, ( v (2), v (3) ) = ( 1) 1 + 1 2 + 1 ( 1) = 0; also sind v (1), v (2), v (3) paarweise orthogonal. Also sind v (1), v (2), v (3) linear unabhängig. Definition: Eine Folge von n linear unabhängigen Vektoren v (1),..., v (n) in R n heisst eine Basis des R n. Achtung: es wird nicht gefordert, dass die Vektoren einer Basis paarweise orthogonal sein müssen. Beispiel: Wir haben bereits im letzten Beispiel eine Basis des R 3 gefunden. Diese war aber etwas speziell und man hofft, dass es noch eine natürlichere Basis gibt. Tatsächlich eistiert die sogenannte kanonische Basis: 1 0 0 (1) e = 0, e (2) = 1, e (3) = 0 0 0 1 Linear unabhängig? Ja, da: λ 1 (1) (2) (3) λ 1 e + λ2 e + λ3 e = λ 2 = 0 = λ 1 = λ 2 = λ 3 = 0. λ 3

III.2 Lineare Abhängigkeit von Vektoren 39 Es gilt auch v 1 (1) (2) (3) v = v 2 = v 1 e + v2 e + v3 e, v 3 also lässt sich jeder Vektor des R 3 in eindeutiger Weise als Linearkombination von e (1), e (2), e (3) schreiben. Dies gilt allgemein: Satz 7. Bilden v (1), v (2),..., v (n) eine Basis von R n, so lässt sich jeder Vektor u R n in eindeutiger Weise als Linearkombination dieser Basisvektoren darstellen. Beweis Sei u R n. Wir suchen λ 1,...λ n R mit λ 1 v (1) +... + λn v (n) = u. Wir schreiben: v 1j (j) v =. ; v nj Dann ist ( ) gleichbedeutend wie ( ) u 1 u =.. u n v 11 λ 1 + v 12 λ 2 + +v 1n λ n = u 1 (S)..... v n1 λ 1 +v n2 λ 2 + +v nn λ n = u n (S) ist ein inhomogenes Gleichungssystem in Unbekannten λ 1,... λ n. Das zugehörige homogene Gleichungssystem (H) hat nur die triviale Lösung, weil v (1),... v (n) linear unabhängig sind. Aus Satz 5 folgt, dass (S) eine eindeutige Lösung besitzt. Satz 8. Mehr als n Vektoren v (1),..., v (r) R n, r > n, sind stets linear abhängig. v 1j Beweis: Seien v (j) =. v nj.

40 III VEKTOR- UND MATRIZENRECHNUNG Die Bedingung λ 1 v (1) +... + λr v (r) = 0 lässt sich in ein homogenes Gleichungssystem für die Unbekannten λ 1,..., λ r übersetzen v 11 λ 1 + +v 1r λ r = 0 (H).... v n1 λ 1 + +v nr λ r = 0. Die Anzahl Variablen r ist grösser als die Anzahl n von Gleichungen. Satz 4 besagt dann, dass (H) eine nichttriviale Lösung v (1),..., v (r) linear abhängig. λ 1. λ r 0 hat. Also sind Beispiel: Stufenmatri eines homogenen linearen Gleichungssystems mit 2 Gleichungen und 4 Unbekannten (Vergleichen Sie mit Kapitel II). Dies entspricht der Situation r = 4 und n = 2 im obigen Beweis. [ ] 1 2 3 3 0 N = 0 0 0 2 0 1, 4 gebunden; 2, 3 frei Lösungsmenge des zu N gehörenden homogenen Systems? 1 + 2 2 + 3 3 3 4 = 0 (H) 2 4 = 0 ergibt die 2-dimensionale Lösungsmenge 1 2 2 3 3 2 3 L H = 2 3 = 2 3 = 1 2 0 + 3 0 1 2, 3 R 4 0 0 0 }{{}}{{} =: v (1) =: v (2)

III.2 Lineare Abhängigkeit von Vektoren 41 Die Lösungen in (H) sind gerade alle Linearkombinationen von v (1) und v (2), da 2 und 3 ja frei wählbar sind. Ausserdem sind v (1), v (2) linear unabhängig (überprüfen!). v (1), v (2) heisst Lösungsbasis des homogenen Systems (H). Allgemeiner. Eine Lösungsbasis v (1),..., v (r) R n eines homogenen Systems (H) ist eine linear unabhängige Folge von Lösungen v (1),..., v (r), dergestalt, dass jede Lösung von (H) eine Linearkombination von v (1),... v (r) ist. Dies ist übrigens auch die Aussage des Satz 2, der besagt, dass die Lösungsmenge eines homogenen linearen Gleichungssystems L H ein Vektorraum ist, was insbesondere bedeutet, dass die Menge abgeschlossen ist unter skalarer Multiplikation und Vektoraddition. Lösungsbasen können mit Gausselimination berechnet werden (siehe letztes Beispiel und Übungen). Synonym zu Lösungsbasis: System von Fundamentallösungen. Weitere Beispiele von Vektorräumen Beispiel 1: Alle Linearkombination von vorgegebenen Vektoren u (1), u (2),..., u (r), geschrieben u (1), u (2),..., u (r). Letzteres nennt man die lineare Hülle des r-tupels ( u 1,..., u (r) ). Beispiel 2: Der Durchschnitt zweier Vektorräume V 1 und V 2, als V 1 V 2 geschrieben. Beispiel 3: Alle Linearkombination von Elementen von V 1 und V 2, als V 1 +V 2 geschrieben. Jeder Vektor u in V 1 +V 2 kann per Definition in der Form u 1 + u 2 geschrieben werden, wobei u 1 V 1 und u 2 V 2 sind. Im wichtigen Fall von Vektorräumen V 1 und V 2 sodass V 1 V 2 = { 0}, ist diese Zerlegung eindeutig. Grund: wenn sowohl auch u = u 1 + u 2 als auch u = u 1 + u 2 mit u 1, u 1 V 1 und u, u 2 V 2 gilt, folgt u = u 1 + u 2 = u 1 + u 2,

42 III VEKTOR- UND MATRIZENRECHNUNG sodass u1 u 1 = u 2 u 2. Da die linke Seite zu V 1 gehört, die rechte Seite zu V 2, liegen die beiden im Durchschnitt V 1 V 2 : also sind beide gleich 0, d.h. u 1 = u 1 und u 2 = u 2 die Zerlegung von u in Elemente von V 1 und V 2 ist also eindeutig. Man schreibt hier V 1 V 2. Ähnlich schreibt man V = V 1 V 2 V m, falls sich u V sich eindeutig in der Form u 1 + u 2 + + u m schreiben lässt, mit u i V i für jedes i. Hier braucht man (mit ähnlichem Beweis), dass die Vektorräume V i die Eigenschaften V i {V 1 + V 2 +... + V i 1 } = { 0} haben, für jedes i. III.3 Dimension von Vektorräumen Bisher haben wir uns den n-dimensionalen Vektorraum einfach als R n vorgestellt. Dabei hatte die Dimension einfach die Bedeutung des Eponenten n und wir haben uns keine weiteren Gedanken darüber gemacht. Für einen allgemeinen n-dimensionalen Vektorraum V kann man eine Basis analog zu der des R n definieren: Definition: Sei V ein Vektorraum. Ein n-tupel u (1), u (2),..., u (n) von Vektoren in V heisst Basis von V, wenn es linear unabhängig ist und die lineare Hülle u (1), u (2),..., u (n) = V erfüllt. Jeder Vektor in V kann also als Linearkombination von u (1), u (2),..., u (n) ausgedrückt werden und zwar, wie im Satz 7, in eindeutiger Weise. Ebenfalls gilt wie in Satz 8, dass mehr als n Vektoren, welche aus u (1), u (2),..., u (n) durch lineare Kombinationen erzeugt werden, immer linear abhängig sind.

III.3 Dimension von Vektorräumen 43 Als Konsequenz gilt, dass jede Basis eines Vektorraumes dieselbe Anzahl Vektoren behalten muss (hier, das n muss immer gleich sein). Definition: Die maimale Anzahl linear unabhängiger Vektoren in V heisst die Dimension dim V von V. Also ist die Dimension von R n gleich n. Die Dimension von u (1), u (2),..., u (n) bei linear unabhängigen Vektoren u (1), u (2),..., u (n) beträgt n. Eine Basis eines Vektorraums V ist leicht zu konstruieren. Man beginnt mit einem beliebigen Vektor u (1) in V. Wenn V 1 := u (1) V, gibt es mindestens einen Vektor u (2) V \ V 1. Einen davon nimmt man und schreibt V 2 := u (1), u (2). Wenn V 2 V, nimmt man u (3) aus V \ V 2, und ergänzt V 2 zu V 3, und so weiter, bis man dim V linear unabhängige Vektoren genommen hat. Genau dann erzeugen diese Vektoren ganz V. In ähnlicher Art und Weise, ausgehend von einer beliebigen Anzahl linear unabhängiger Vektoren in V, kann man sie mit weiteren Vektoren zu einer Basis von V ergänzen. Wichtig: hier steht korrekterweise immer eine Basis. Es gibt nämlich beliebig viele Basen. Verallgemeinerter Vektorbegriff Man merkt eventuell jetzt, dass bei solchen Überlegungen R n immer weniger zum Vorschein kommt. Einen Vektorraum kann man eigentlich ganz abstrakt definieren als Menge V von Elementen man schreibt sie beispielsweise als sodass die Operationen Addition und Skalarmultiplikation einen Sinn haben und die Rechenregeln erfüllen (es muss einen Nullvektor 0 geben, Summen und skalare Vielfache müssen jeweils auch zur Menge gehören, etc). In dieser Allgemeinheit könnte man auch dim V = haben. Wenn jedoch dim V = n < gilt, verhält sich ein solches V genau wie R n. Dimensionsformel für Matrizen Vorbemerkung: Genau genommen müsste dieser Abschnitt Dimensionformel für lineare Abbildungen heissen. Da wir aber hier nicht zwischen linearen Abbildungen und Matrizen unterscheiden, spielt dies keine grosse Rolle.

44 III VEKTOR- UND MATRIZENRECHNUNG Ein homogenes Gleichungssystem kann nun also in der Form A = 0 geschrieben werden. Die Lösungsmenge davon, L H ist gemäss Satz 2 ein Vektorraum. Diesen Vektorraum nennen wir neu Kern von A: ker(a) := { : A = 0}. Eine weitere Menge von Vektoren enthält alle Abbilder, wenn A auf alle möglichen losgelassen wird. Man nennt diese Menge das Bild (Image) von A: Im(A) := {A : R n }. Das Bild Im(A) ist ebenfalls ein Vektorraum (Beweis siehe in der Stunde). Wichtig ist folgender Satz. Dimensionsformel für lineare Abbildungen: Für jede n n Matri A gilt (1) dim(ker(a)) + dim(im(a)) = n. Beweis: Sei u 1,..., u m eine Basis von ker(a). Wähle weitere linear unabhängige Vektoren u m+1,..., u n so, dass u 1,..., u n linear unabhängig sind, und daher eine Basis von R n. Behauptung: A u m+1,..., A u n bildet eine Basis von Im(A), und zwar mir m n Elementen. Falls dem so ist, dann haben wir den Satz bewiesen, denn dann ist dim(ker(a))+dim(im(a)) = m+(n m) = n. Also: Einerseits gilt für jedes R n, dass eine lineare Kombination der Basisvektoren u i ist, und daher A eine lineare Kombination von A u i, 1 i n aber die ersten m von diesen Vektoren sind gleich 0, sodass alle Elemente von Im(A) aus A u m+1,..., A u n erzeugt werden. Andererseits sind diese Vektoren linear unabhängig: wäre das nicht so, gäbe es eine nichttriviale Linearkombination a m+1 A u m+1 + +a n A u n = 0. Dann müsste a m+1 um+1 + + a n un ker(a) gelten, d.h. a m+1 um+1 + + a n un = a 1 u1 + + a m um bzw. a m+1 um+1 + + a n un a 1 u1 a m um = 0

III.3 Dimension von Vektorräumen 45 für passende Zahlen a 1,..., a m, was der linearen Unabhängigkeit von u 1,..., u n widerspricht. Definition: Den Wert dim(im(a)) nennt man den Rang von A, Rang (A). Merkregel: Der Rang einer Matri entspricht der Anzahl linear unabhängigen Spaltenvektoren. Begründung: e (1), e (2),..., e (n) ist eine Basis des R n und darum ist A e (1), A e (2),..., A e (n) die lineare Hülle von Im(A). Die Anzahl linear unabhängiger A e (i) entspricht also Rang (A). Weil die Vektoren A e (i) die Spaltenvektoren von A sind (nachprüfen), gilt die obige Merkregel. Eine weitere Überlegung: Da ker(a) die Lösungsmenge des homogenen Systems A = 0 ist, haben wir m = dim(ker(a)) als die Anzahl freie Variablen, welche in der Stufenform ersichtlich werden. Da die restlichen n m Variablen gebunden sind, entspricht diese Anzahl gemäss dem obigen Satz gerade dem Rang A. Wir haben also zwei äquivalente Gleichungen: dim(ker(a)) + dim(im(a)) = n Anz. freie Variablen + Anz. gebundene Variablen = n

46 III VEKTOR- UND MATRIZENRECHNUNG III.4 Weitere Matrioperationen Potenzen Im Spezialfall von quadratischen Matrizen A (Format n n), setzen wir A 0 := E, A 1 := A, A 2 = AA, A 3 = AA 2, etc. (die Potenzen von A). Dann gelten allgemein folgende Potenzregeln: A m A p = A m+p (A m ) r = A mr, m, p, r Z + Anwendung: Im Populationsmodell haben wir (1) = A (0), (2) = A (1) = A(A (0) ) = (AA) = A 2 (0) (3) = A (2) = A(A 2 (0) ) = (AA 2 ) (0) = A 3 (0), etc. Daraus folgt die schöne Formel (k) = A k (0), k N Also ist das Langzeitverhalten der Population durch die Potenzen von der Matri A bestimmt. Wir werden später Methoden kennenlernen, um A k für grosse k zu berechnen, bzw. zu approimieren ( Kap.V). Inverse einer Matri Schon früher haben wir die Inverse A 1 einer Matri A eingeführt. Zur Erinnerung: es handelt sich dabei um die Matri, welche A in die Einheitsmatri überführt, und zwar unabhängig von der Reihenfolge der Multiplikation, also A A 1 = A 1 A = E. Mit dieser Schreibweise passt obige Gleichung in die allgemeinen Potenzregeln mit m = 1 und p = 1. Die Inverse einer Matri ist beispielsweise nützlich, um die Lösung eines linearen Gleichungssystems (S) A = b

III.4 Weitere Matrioperationen 47 zu berechnen, wobei A eine n n Matri ist, und b R n. Falls A invertierbar ist, dann = E = (A 1 A) = A 1 (A ) = A 1 b. Das System (S) ist also für ein beliebiges b eindeutig lösbar. Die Lösung bekommt man durch Multiplikation von A 1 mit b. Oft wird dies auch so geschrieben: = A\b Beispiel: ( ) 1 2 A = ist nicht invertierbar, da für eine beliebige 2 2 Matri ( 0 0 ) b11 b B = 12 gilt b 21 b 22 ( ) ( ) b11 + 2b AB = 21 b 12 + 2b 22 1 0. 0 0 0 1 Also ist nicht jede Matri 0 invertierbar. Bemerkung: A, B invertierbar impliziert, dass AB auch invertierbar ist, mit (AB) 1 = B 1 A 1 Beweis: (B 1 A 1 )(AB) = B 1 (A 1 A)B = B 1 EB = B 1 B = E. Analog gilt (AB)(B 1 A 1 ) = E. Beispiel: 1 0 0 U 21 (λ) := λ 1 0, λ R, invertierbar? 0 0 1 Zunächst sehen wir, dass 1 0 0 a 11 a 12 a 13 λ 1 0 a 21 a 22 a 23 = 0 0 1 a 31 a 32 a 33 a 11 a 12 a 13 z 1 z 2 z 3, a 31 a 32 a 33

48 III VEKTOR- UND MATRIZENRECHNUNG wobei [z 1, z 2, z 3 ] = λ[a 11, a 12, a 13 ] + [a 21, a 22, a 23 ]. Eine Matri A von links mit U 21 (λ) zu multiplizieren, bewirkt in A die Addition des λ-fachen der 1. Zeile zur 2. Zeile (elementare Zeilenoperation). Diese Operation können wir sehr einfach invertieren: 1 0 0 λ 1 0 0 0 1 1 0 0 λ 1 0 = 0 0 1 1 0 0 0 1 0, 0 0 1 oder U 21 (λ)u 21 ( λ) = E. Ebenso U 21 ( λ)u 21 (λ) = E. Also ist U 21 (λ) invertierbar, und U 21 (λ) 1 = U 21 ( λ). U 21 (λ) = E+λ 12, wobei die Matri ij alle Elemente ausser dem ij Element gleich Null hat, und ij ij = 1. Allgemeiner setzen wir U ij (λ) := E + λ ij. Analog gilt U ij (λ) 1 = U ij ( λ), bei i j. Nützlich ist folgender Satz 9. Seien A, B n n Matrizen, so dass AB = E. Dann gilt auch BA = E, und B ist die einzige Matri, welche AB = E erfüllt. Also sind A, B invertierbar, mit B = A 1, A = B 1. Beweis: Die Aussage ist nicht trivial, weil Matrizenmultiplikation nicht kommutativ ist. (1) Wir nehmen also an, dass AB = E und möchten zeigen, dass dann ebenfalls BA = E gilt. Schreiben wir zuerst Demzufolge gilt BAB y = B y BAB = BE = B.