Lineare Abhängigkeit

Ähnliche Dokumente
Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v

Basis und Dimension. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Summen und direkte Summen

02. Vektorräume und Untervektorräume

Einführung in die Mathematik für Informatiker

Lineare Algebra I (WS 13/14)

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit

Vektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Kapitel II. Vektorräume

Lineare Abbildungen - I

Lineare Algebra und analytische Geometrie I

2.3 Basis und Dimension

2 Die Dimension eines Vektorraums

Mathematik für Anwender I

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,

Kapitel II. Vektorräume. Inhalt: 7. Vektorräume 8. Basis und Dimension 9. Direkte Summen und Faktorräume

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Eigenwerte und Diagonalisierung

Übungsklausur zur Vorlesung Lineare Algebra und Analytische Geometrie I

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z);

Übungen zur Linearen Algebra 1

4.1. Vektorräume und lineare Abbildungen

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A.

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

TECHNISCHE UNIVERSITÄT MÜNCHEN

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18.

2.3 Basis und Dimension

Affine Hülle. x x 1 ist lineare Kombination der Vektoren x 2 x 1,x 3 x 1,...,x k x 1. Tatsächlich, in diesem Fall ist λ 1 = 1 λ 2 λ 3...

(Allgemeine) Vektorräume (Teschl/Teschl 9)

Satz 7. A sei eine Teilmenge des nichttrivialen Vektorraums (V,+, ). Dann sind die folgende Aussagen äquivalent.

Übersicht Kapitel 9. Vektorräume

Übungen zum Ferienkurs Lineare Algebra 2015/2016: Lösungen

3 Vektorräume abstrakt

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

ein vom Nullvektor verschiedener Vektor, dann ist jeder dazu parallele (kollinear) Veka tor d ein Vielfaches von a. + λ 2 a 2

(Allgemeine) Vektorräume (Teschl/Teschl 9)

Satz 7. A sei eine nichtleere Teilmenge des nichttrivialen Vektorraums (V, +, ). Dann sind die folgende Aussagen äquivalent.

5.7 Lineare Abhängigkeit, Basis und Dimension

Wiederholung: lineare Abbildungen

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

00. Einiges zum Vektorraum R n

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt

6.5 Lineare Abhängigkeit, Basis und Dimension

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Ferienkurs Mathematik für Physiker I Skript Teil 2 ( )

11. BASIS, UNTERRAUM, und DIMENSION

Lineare Gleichungssysteme

Definition 131 Sei R ein (kommutativer) Ring. Ein Polynom über R in der Variablen x ist eine Funktion p der Form

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat.

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen.

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Kapitel II. Vektoren und Matrizen

Affine Geometrie (Einfachere, konstruktive Version)

Kapitel 15. Aufgaben. Verständnisfragen

1 Euklidische und unitäre Vektorräume

[5], [0] v 4 = + λ 3

Diagonalisierbarkeit symmetrischer Matrizen

Lösungen der Aufgaben zu Abschnitt 5.4

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Aufgaben zu Kapitel 15

Vorkurs Mathematik B

Demo für LINEARE ALGEBRA. Vektoren und Vektorraum. Teil 3. Untervektorräume INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK. Datei Nr.

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Zahlen und metrische Räume

4 Funktionenfolgen und normierte Räume

Projektive Räume und Unterräume

KANN DER VEKTORRAUM R 3 EIN KÖRPER WERDEN? 1. Der Körper Centsprichtdem Vektorraum R 2

a i x i, (1) Ein Teil der folgenden Betrachtungen gilt auch, wenn man den Körper durch einen Ring ersetzt.

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper.

Mathematik für Naturwissenschaftler II

Ausgewählte Lösungen zu den Übungsblättern 4-5

Aufgaben zu Kapitel 20

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Grundlagen der Mathematik 1

Vektorgeometrie Layout: Tibor Stolz

03. Vektoren im R 2, R 3 und R n

Ordinalzahlen. Sei (X, ) eine total geordnete Menge und a X. Dann

Transkript:

Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x i ). Man beachte dabei, dass für i j auch x i = x j sein kann. Ist J I, dann heißt (x i ) i J eine Teilfamilie von (x i ). Für I = heißt die Familie leer. Ist I eine n-elementige Menge, etwa I = {1, 2,..., n}, dann entspricht einer Familie I X genau ein (geordnetes) n-tupel (x 1, x 2,..., x n ) von Elementen von X. Ist I = N, so erhält man eine Folge von Elementen von X....................................................................... Definition. Sei V ein K-Vektorraum und (v 1, v 2,..., v r ) eine Familie von Vektoren aus V. v V heißt Linearkombination der Vektoren (v 1, v 2,..., v r ), wenn λ 1, λ 2,..., λ r K sodaß v = λ 1 v 1 + λ 2 v 2 +... + λ r v r. (Man sagt auch kurz: v ist Linearkombination der v 1, v 2,..., v r ) Bemerkung. Ist W V und v 1, v 2,..., v r W, dann liegt jede Linearkombination der v 1, v 2,..., v r in W. (Beweis: Übung) Beispiel. Sei V = R 3, v 1 = (1, 0, 0) und v 2 = (0, 1, 0). Dann ist etwa v = (2, 8, 0) eine Linearkombination von v 1, v 2, weil v = 2v 1 + 8v 2. Hingegen ist (0, 0, 3) keine Linearkombination von v 1, v 2. 1

Definition. Sei V ein K-Vektorraum und (v i ) eine Familie von Vektoren aus V. Wir betrachten alle Vektoren v V, die sich als Linearkombination von endlich vielen Vektoren aus (v i ) darstellen lassen, und fassen diese Vektoren in der Teilmenge Span(v i ) zusammen. Span(v i ) heißt der von (v i ) aufgespannte Raum. Somit gilt : v Span(v i ) v i1, v i2,..., v ir aus (v i ), λ 1, λ 2,..., λ r K mit v = λ 1 v i1 + λ 2 v i2 +..., λ r v ir. Im besonderen ist v j Span(v i ) für jedes j I. Bemerkungen. Ist I =, dann ist per definition Span(v i ) = {0}. Ist I endlich, etwa I = {1, 2,..., r}, dann gilt offenbar Span(v 1, v 2,..., v r ) = Kv 1 + Kv 2 +... + Kv r = {v V K mit v = λ 1 v 1 + λ 2 v 2 +... + λ r v r } : λ 1, λ 2,..., λ r Beispiel. Sei V = Abb(R, R). Seien f, g, h V mit f(t) = t 3, g(t) = e t und h(t) = cos t. Span(f, g, h) besteht dann aus allen Abbildungen R R der Form λ 1 t 3 + λ 2 e t + λ 3 cos t. So liegt etwa 5t 3 + 3e t + 2cos t in Span(f, g, h). Satz. Sei V ein K-Vektorraum und (v i ) eine Familie von Vektoren aus V. Dann ist Span(v i ) der kleinste Untervektorraum von V, der alle v i enthält. Beweis. Wie schon zuvor erwähnt, liegen alle v j in Span(v i ). (i) Span(v i ) V Seien v, w Span(v i ). Dann gibt es endliche Teilmengen J 1, J 2 I sodaß v Linearkombination der Vektoren (v i ) i J1 ist, und w Linear- 2

kombination der Vektoren (v i ) i J2 ist. Damit ist aber v + w Linearkombination der Vektoren (v i ) i J1 J 2, also v + w Span(v i ). Für λ K ist in analoger Weise λv Span(v i ). (ii) Sei W V mit v i W für alle i I. Wie schon zuvor vermerkt, liegt dann auch jede endliche Linearkombination von (v i ) in W. Dies heißt aber, dass Span(v i ) W und somit ist Span(v i ) der kleinste Untervektorraum von V, der alle v i enthält. Definition. Sei V ein K-Vektorraum. 1) Eine endliche Familie (v 1, v 2,...v r ) heißt linear unabhängig, wenn λ 1 v 1 + λ 2 v 2 +... + λ r v r = 0 λ 1 = 0, λ 2 = 0,..., λ r = 0 (D.h. der Nullvektor kann mittels (v 1, v 2,...v r ) nur als triviale Linearkombination dargestellt werden.) 2) Eine (beliebige) Familie (v i ) heißt linear unabhängig, wenn jede endliche Teilfamilie linear unabhängig ist. 3) Eine Familie (v i ) heißt linear abhängig, wenn sie nicht linear unabhängig ist. (Dies wiederum heißt: es gibt eine endliche Teilfamilie (v i1, v i2,..., v ir ) und λ 1, λ 2,..., λ r K mit (λ 1, λ 2,..., λ r ) (0, 0,..., 0) und λ 1 v i1 + λ 2 v i2 +... + λ r v ir = 0. Anders gesagt: der Nullvektor kann als nichttriviale Linearkombination dargestellt werden.) Anmerkung. (i) Bei endlichen Familien sagt man meist: die Vektoren v 1, v 2,..., v r sind linear unabhängig (bzw. linear abhängig) statt: die Familie (v 1, v 2,..., v r ) ist linear unabhängig (bzw. linear abhängig). (ii) Die leere Familie (I = ), welche {0} aufspannt, wird per definition als linear unabhängig festgesetzt. Beispiele. Sei V = R 3. 1) Betrachte v 1 = (1, 2, 1), v 2 = (3, 6, 3), v 3 = (3, 9, 3). 3

v 1, v 2, v 3 sind linear abhängig, weil 3v 1 + ( 1)v 2 + 0 v 3 = 3v 1 v 2 = 0. 2) Betrachte v 1 = (3, 0, 0), v 2 = (4, 1, 0), v 3 = (2, 5, 2). Wir zeigen, dass v 1, v 2, v 3 Sei λ 1 v 1 + λ 2 v 2 + λ 3 v 3 = 0, d.h. linear unabhängig sind. (3λ 1, 0, 0)+(4λ 2, λ 2, 0)+(2λ 3, 5λ 3, 2λ 3 ) = (3λ 1 +4λ 2 +2λ 3, λ 2 +5λ 3, 2λ 3 ) = (0, 0, 0). Somit 3λ 1 + 4λ 2 + 2λ 3 = 0, λ 2 + 5λ 3 = 0, 2λ 3 = 0 und damit λ 3 = 0, λ 2 = 0, λ 1 = 0. Weitere Beobachtungen. Sei V ein K-Vektorraum. 1) Jede Teilfamilie einer linear unabhängigen Familie ist wieder linear unabhängig (und damit ist jede Oberfamilie einer linear abhängigen Familie wieder linear abhängig). 2) Zu (v i ) sei v i0 = 0, i 0 I. Dann ist (v i ) wegen 1 v i0 = 0 linear abhängig. 3) Zu (v i ) sei v i0 = v i1, i 0, i 1 I. Dann ist (v i ) wegen 1 v i0 + ( 1) v i1 = 0 linear abhängig. 4) v V ist linear unabhängig v 0. 5) Sei (v i ) linear unabhängig in W und W V, dann ist (v i ) auch linear unabhängig in V. 6) Seien (v 1, v 2,..., v r ) linear abhängig, r 2. Dann gibt es ein k {1, 2,..., r} sodaß v k Linearkombination der restlichen Vektoren (v 1,..., v k 1, v k+1,..., v r ) ist. Beweis zu 6) : (λ 1, λ 2,..., λ r ) (0, 0,..., 0) mit λ 1 v 1 +... + λ r v r = 0. Sei etwa 0. Dann ist v k = λ 1 v 1... 1 v k 1 +1 v k+1... λ r v r. Beispiele. 4

1) In V = K n gibt es n linear unabhängige Vektoren. Für jedes i {1, 2,..., n} sei e i = (0,.., 0, 1, 0,..0). i testelle Behauptung : die n Vektoren (e 1, e 2,..., e n ) sind linear unabhängig. Sei λ 1 e 1 + λ 2 e 2 +... + λ n e n = 0. Wegen λ 1 e 1 = (λ 1, 0,..., 0), λ 2 e 2 = (0, λ 2, 0,..., 0),..., λ n e n = (0,..., 0, λ n ) gilt offenbar (λ 1, λ 2,..., λ n ) = (0, 0,..., 0), somit λ 1 = λ 2 =... = λ n = 0. 2) In V = P n gibt es n + 1 linear unabhängige Vektoren. Für jedes i {0, 1, 2,..., n} sei p i (t) = t i. Behauptung : die n + 1 Vektoren (p 0, p 1,..., p n ) sind linear unabhängig. Sei λ 0 p 0 + λ 1 p 1 +... + λ n p n = 0 (Nullvektor in P n ). D.h. t R gilt λ 0 + λ 1 t + λ 2 t 2 +... + λ n t n = 0. Der Fundamentalsatz der Algebra besagt jedoch, dass ein Polynom n- ten Grades (n 1) höchstens n (reelle) Nullstellen hat. Damit muß, falls n 1, λ 0 = λ 1 =... = λ n = 0 sein. Der Fall n = 0 ist trivial. Zweite Überlegung : Wird λ 0+λ 1 t+λ 2 t 2 +...+λ n t n = 0 n-mal differenziert, erhalten wir n(n 1)...2.1λ n = 0 und damit λ n = 0. Damit verbleibt λ 0 +λ 1 t+λ 2 t 2 +...+λ n 1 t n 1 = 0, und (n 1)-faches Differenzieren liefert λ n 1 = 0 etc. Schließlich λ 1 = λ 0 = 0. Bemerkung. (Eine komfortable Schreibweise) Sei (v i ) eine Familie von Vektoren im K-Vektorraum V. Dann kann ein Vektor v Span(v i ) formal geschrieben werden in der Form v = λ i v i, wobei höchstens endlich viele λ i 0 sind. Die Addition von v = λ i v i und w = µ i v i ist in dieser Schreibweise dann v + w = (λ i + µ i )v i, und die Multiplikation von v = λ i v i mit λ K ist λv = (λλ i )v i. 5

Lemma. Sei (v i ) eine Familie von Vektoren im K-Vektorraum V. Dann sind folgende Aussagen äquivalent: 1) (v i ) ist linear unabhängig, 2) die Darstellung jedes Vektors v Span(v i ) in der Form v = λ i v i ist eindeutig. Beweis. 1) 2) : Sei v Span(v i ) und v = λ i v i = µ i v i. Dann gibt es endliche Teilmengen J 1, J 2 I mit λ i = 0 für i / J 1 µ i = 0 für i / J 2. und Die Menge J = J 1 J 2 ist ebenfalls endlich und für i / J gilt offenbar λ i = 0 und µ i = 0. Also kann v auch geschrieben werden als endliche Linearkombination der Form v = λ i v i bzw. v = µ i v i. i J i J Subtraktion liefert 0 = (λ i µ i )v i. Wegen der linearen Unabhängigkeit i J der (v i ) ist dann λ i µ i = 0 i J, bzw. λ i = µ i i J. Somit ist λ i = µ i für alle i I. 2) 1) : Annahme: (v i ) sei linear abhängig. Dann ist eine endliche Teilfamilie (v i1, v i2,..., v ir ) linear abhängig, und (siehe Beobachtungen vorher, 6)) einer der Vektoren, etwa v ik, ist darstellbar als Linearkombination der verbleibenden Vektoren. Dies ist eine weitere, unterschiedliche Darstellung als 1 v ik von v ik, was einen Widerspruch zur Annahme liefert. Somit ist (v i ) linear unabhängig. 6