Lineare Algebra 1. . a n1 a n2 a n3 a nm

Ähnliche Dokumente
1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

Matrizen, Determinanten, lineare Gleichungssysteme

4 Vorlesung: Matrix und Determinante

Einführung in die Vektor- und Matrizenrechnung. Matrizen

9.2 Invertierbare Matrizen

Lineare Algebra. Teil III. Inhaltsangabe

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

4 Lineare Algebra (Teil 2): Quadratische Matrizen

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Matrizen und Determinanten

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

A Matrix-Algebra. A.1 Definition und elementare Operationen

Spezialgebiet Mathematik(Christian Behon ) 1. Matrizen. Kapitel 1 Definitionen und Herleitung von Matrizen. Kapitel 2 Matrizenoperation

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer.

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Lineare Algebra (Teil 1) (LinAlg_1.mw)

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Lineare Algebra - alles was man wissen muß

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

MC-Serie 11: Eigenwerte

Homogenität Assoziativgesetz A (B 1 + B 2 ) = A B 1 + A B 2 Distributivgesetz 1 (A 1 + A 2 ) B = A 1 B + A 2 B Distributivgesetz 2

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Vektorräume und Rang einer Matrix

Mathematische Formeln für Wirtschaftswissenschaftler

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Vektoren. 2.1 Darstellung. Kapitel Subtraktion und Addition

Vektoren und Matrizen

Mathematik II Frühjahrssemester 2013

Mathematik Matrizenrechnung

3 Matrizen und Determinanten

1.9 Eigenwerte und Eigenvektoren

00. Einiges zum Vektorraum R n

4.4. Rang und Inversion einer Matrix

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Iterative Verfahren, Splittingmethoden

Statistische Methoden

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Serie 10: Inverse Matrix und Determinante

Lineare Algebra 1. Roger Burkhardt

Brückenkurs Mathematik

6. Rechnen mit Matrizen.

Lineare Gleichungssysteme

Determinanten. a e b f a c b d. b) x = , y = c) zu einem Spaltenvektor das Vielfache des anderen Spaltenvektors addiert wird,

Tutorium Mathematik II, M Lösungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Leitfaden Lineare Algebra: Determinanten

10. Teil: Elemente der Linearen Algebra

Kapitel 17. Determinanten

Lineare Gleichungssysteme

Per Jensen VORLESUNGSSKRIPT MATHEMATIK B FÜR CHEMIKER

Musterlösung zur Klausur Lineare Algebra II für Lehramt

Kap 5: Rang, Koordinatentransformationen

7 Lineare Gleichungssysteme

Gilt jedoch. det A = 0, so besagt dies:

& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors

Inhaltsverzeichnis 1 Lineare Gleichungssysteme I

Lineare Algebra KAPITEL III. 12 Matrizen und der Gauß-Algorithmus. I) Matrizen

Quadratische Matrizen Inverse und Determinante

Aufgabensammlung zur Vorlesung. Höhere Mathematik für Wirtschaftswissenschaftler Algebra

2.2 Kern und Bild; Basiswechsel

4 Kongruenz und Modulorechnung

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH )

Corinne Schenka Vorkurs Mathematik WiSe 2012/13

Jürgen Roth Didaktik der Linearen Algebra & Analytischen Geometrie

Wirtschaftswissenschaftliche Bücherei für Schule und Praxis Begründet von Handelsschul-Direktor Dipl.-Hdl. Friedrich Hutkap

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen.

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

5 Determinante, Spatprodukt, Vektorprodukt, inverse Matrix

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Vorkurs Mathematik 1

Zahlen und metrische Räume

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

Inhaltsverzeichnis. 1 Lineare Algebra 12

1 Zahlentheorie. 1.1 Kongruenzen

35 Stetige lineare Abbildungen

Vektorgeometrie Layout: Tibor Stolz

Berechnen eines Bildpunktes bei Parallelprojektion: die Kavalierproduktion

Lineare Gleichungssysteme

Eigenwerte und Eigenvektoren von Matrizen

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

Eigenwerte und Eigenvektoren

Lernmaterialblatt Mathematik. Vektorrechnung eine Einführung. Anwendung Mathematik I. Einleitung:

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Lineare Algebra für Biologen

Geometrische Objekte im 3-dimensionalen affinen Raum oder,... wie nützlich ist ein zugehöriger Vektorraum der Verschiebungen

Lineare Gleichungssysteme

Anhang B. Matrixalgebra. B.1 Matrizen. B.2 Spezielle Matrizen

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

3.3 Klassifikation quadratischer Formen auf R n

Axiomatische Beschreibung der ganzen Zahlen

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48

Analysis II. Vorlesung 48. Die Hesse-Form

1 Rechnen mit 2 2 Matrizen

Elemente der Analysis II

Transkript:

Lineare Algebra 1 Lineare Algebra Hilfreiche Konzepte zur Vereinfachung der Darstellung und Berechnung stellt die lineare Algebra bereit. Auch wenn sie nur an wenigen Stellen des Buches verwendet wurden, kommt Matrizen und Vektoren u.a. bei der Analyse von Netzwerkstrukturen und der Lösung von Optimierungsproblemen wesentliche Bedeutung zu. A. Fundamentale Konzepte Matrizen erlauben kompakte Darstellungen von miteinander verknüpfbaren Elementen, Zahlen bzw. Funktionen. Eine Matrix ist ein rechteckiges Schema, das durch einen fettgedruckten Großbuchstaben symbolisiert wird und aus einer Anzahl von Zeilen (Zeilenvektoren) und Spalten (Spaltenvektoren) besteht Vektoren sind demnach spezielle Matrizen, die entweder nur eine Zeile oder nur eine Spalte umfassen und sich durch kleine fettgedruckte Buchstaben repräsentieren lassen. Das ij-te Eintrag der Matrix befindet sich in der i-ten Zeile und j- ten Spalte. Nach der Einführung grundlegender Begriffe werden lediglich besonders wichtige Kategorisierungen vorgestellt. A1. Matrizen, Vektoren und Skalare Eine Matrix A ist ein rechteckiges Zahlenschema, in dem n m Elemente a ij in n Zeilen und m Spalten arrangiert sind: a 11 a 12 a 13 a 1m a 21 a 22 a 23 a 2m A = (a ij ) =...... a n1 a n2 a n3 a nm Die Transposition einer Matrix bedeutet, dass ihre Spalten und Zeilen vertauscht werden. Die Transponierte der n m Matrix A wird mit A bezeichnet die k-te Zeile von A ist die k-te Spalte von A. Eine 1 1 Matrix ist ein Skalar (d.h. eine einzelne reelle Zahl). Eine Matrix, die aus n Zeilen und lediglich einer Spalte besteht, wird Spaltenvektor genannt und mit einem kleinen Buchstaben (wie z.b. x) bezeichnet. Ein Zeilenvektor (wie z.b. x ) liegt vor, wenn eine Matrix nur eine Zeile, aber m Spalten hat. A2. Einige Matrizentypen Besonders wichtige Arten von Matrizen sind: Quadratische Matrix: Eine Matrix, welche dieselbe Zahl von Zeilen und Spalten besitzt, wird quadratische Matrix genannt. Sie besitzt eine Hauptdiagonale (von links oben nach rechts unten). Symmetrische Matrix: Eine quadratische Matrix, deren Elemente über der Hauptdiagonale denjenigen unter der Hauptdiagonale entsprechen, ist symmetrisch. Bei Symmetrie gilt also A = A, so dass a ij = a ji für alle i und j erf llt ist.

2 Mathematischer Anhang Diagonalmatrix: Eine Diagonalmatrix liegt vor, wenn eine quadratische Matrix zumindest ein positives oder negatives Hauptdiagonalelement hat, aber sonst nur Nullen aufweist. Identitätsmatrix: Eine Diagonalmatrix, die ausschliesslich Einser in der Hauptdiagonale hat, heisst Identitätsmatrix und wird mit I bezeichnet. Nullmatrix: Eine Matrix, deren Elemente alle Null sind, ist eine Nullmatrix und wird mit 0 bezeichnet. Negativ oder positiv definite Matrix: Eine symmetrische Matrix, für die x Ax < 0 (x Ax > 0) für alle x 0 gilt, wird negativ (positiv) definite Matrix genannt. Daneben sind folgende Begriffe gebräuchlich: Werden die Zeilen und Spalten einer Matrix miteinander vertauscht, so erhält man ihre transponierte Matrix. Eine quadratische Matrix ist unzerlegbar, wenn sie durch keine Permutation ihrer Zeilen und Spalten in separate quadratische Untermatrizen überführt werden kann. Intuitiv gesprochen gibt es dann keine voneinander unabhängigen Teile der durch die Matrix repräsentierten Verflechtungen. B. Verknüpfungen und Rechenregeln Unter bestimmten Bedingungen lassen sich Matrizen, Vektoren und Skalare miteinander verknüpfen. Nach der Darstellung dieser Voraussetzungen werden die relevanten Berechnungsvorschriften spezifiziert. B1. Matrixverknüpfungen Zwei Matrizen A und B sind dann gleich, wenn sie dieselbe Dimension n m besitzen und ihre korrespondierenden Elemente allesamt gleich sind (d.h. a ij = b ij für alle i und j). Zwei n m Matrizen A und B werden addiert bzw. subtrahiert, indem sie man elementweise addiert bzw. subtrahiert. Eine Matrix A wird mit einem Skalar a multipliziert, indem man jedes Element von A mit a multipliziert. Bei der Multiplikation von zwei Matrizen A und B ist zu beachten: Ihre Multiplizierbarkeit im Sinne von AB ist nur gegeben, wenn die Spaltenzahl der linksstehenden Matrix A genau der Zeilenzahl der rechtsstehenden Matrix B entspricht. Bei der Multiplikation von zwei geeignet dimensionierten Matrizen gilt im Allgemeinen AB BA. Generell ist also zwischen Linksmultiplikation und Rechtsmultiplikation zu unterscheiden. Das Produkt einer n m Matrix A mit einer m q Matrix B ergibt eine n q Matrix C mit Elementen c ik = j a ij b jk für alle i und k. Wenn sie bezüglich der Dimension passend sind, gilt bei der Multiplikation von zwei Vektoren oder der Multiplikation einer Matrix mit einem Vektor:

Lineare Algebra 3 Wird ein Zeilenvektor mit einem Spaltenvektor (in dieser Reihenfolge) multipliziert, so liegt ein Skalarprodukt vor (d.h es resultiert ein Skalar). Wird ein Spaltenvektor mit einem Zeilenvektor (in dieser Reihenfolge) multipliziert, so resultiert eine Matrix. Wird eine Matrix mit einem Spaltenvektor (in dieser Reihenfolge) multipliziert, so resultiert ein Spaltenvektor. Wird ein Zeilenvektor mit einer Matrix (in dieser Reihenfolge) multipliziert, so resultiert ein Zeilenvektor. Wird eine quadratische Matrix A und ein korrespondierender Spaltenvektor X betrachtet, so liegt eine quadratische Form x Ax vor. Zu betonen ist, dass die Division mit einer Matrix nur bedingt durch die Bestimmung der inversen Matrix m glich ist. Die Inverse einer quadratischen Matrix A ist, sofern sie berhaupt existiert, eine quadratische Matrix A 1 für die AA 1 = A 1 A = I gilt. Bei einer symmetrischen Matrix ist stets auch die Inverse symmetrisch (d.h. A 1 = (A 1 ) = A 1 ). B2. Zentrale Rechenregeln Matrizen lassen sich nur verknüpfen, falls sie bezüglich der Zeilen- und Spaltenzahl zueinander passen. Es gelten dann folgende Rechenregeln: A + B = B + A, A + 0 = A, (A + B) + C = A + (B + C) = A + B + C, a(a + B) = aa + ab, (a + b)a = aa + ba, a(ba) = (ab)a = (ba)a = b(aa), (AB)C = A(BC) = ABC, A(B + C) = AB + AC, (B + C)A = BA + CA, a(ab) = (aa)b = A(aB) = aab, IA = AI = A, 0A = A0 = 0, (A ) = A, (A + B) = A + B, (AB) = B A, ABC = C B A. Entsprechend einer weit verbreiteten Praxis sind hier Skalare (im Gegensatz zu Matrizen und Vektoren) nicht fett gedruckt.

4 Mathematischer Anhang C. Stochastische Matrizen und Eigenwertaufgaben Stochastische Matrizen werden oftmals in der Soziologie z.b. bei Analysen von Netzwerkstrukturen und Prozessen (z.b. soziale Mobilität, Vakanzketten) verwendet. Nach der Klärung von Begriffen werden daher einschlägige Einsichten referiert. C1. Stochastische Matrizen Weist eine quadratische Matrix nur nichtnegative Einträge auf und sind ihre Spaltensummen (Zeilensummen) alle gleich Eins, dann nennt man sie eine spaltenstochastische (zeilenstochastische) Matrix. Für eine spaltenstochastische Matrix A = (a ij ) sind also a ij 0 für alle i, j und i a ij = 1 für alle j erfüllt. Bei einer zeilenstochastischen Matrix B = (b ij ) gelten dagegen b ij 0 für alle i, j und j b ij = 1 für alle i. Welche Variante stochastischer Matrizen man dabei wählt, hängt davon ab, ob man eher mit Spaltenvektoren oder eher mit Zeilenvektoren rechnen will. Diese Entscheidung hat mit der Matrizenmultiplikation und ihren Eigenschaften zu tun. Voraussetzung der Multiplikation von zwei Matrizen H und K ist bekanntlich, dass die Anzahl der Spalten von H mit der Anzahl der Zeilen von K übereinstimmt. Ist diese Bedingung erfüllt, kann P = HK berechnet werden und das ij-te Element der Produktmatrix P ergibt sich durch die Summe der Produkte aus den Einträgen der i-ten Zeile von H mit den jeweils korrespondierenden Einträgen aus der j-ten Spalte von K. Wichtig ist hierbei die fehlende Kommutativität der Matrizenmultiplikation im Gegensatz zur Produktbildung von zwei Zahlen bestimmt bei der Matrizenmultiplikation die Reihenfolge der beiden Faktoren (also der Matrizen) wesentlich das Ergebnis. Beispielsweise ergibt die Linksmultiplikation einer Matrix mit einem geeignet dimensionierten Zeilenvektor (d.h. die von links erfolgende Multiplikation des Vektors mit der Matrix) wiederum einen Zeilenvektor, dessen Einträge sich im Allgemeinen von denen des Spaltenvektors unterscheiden, der bei einer Rechtsmultiplikation derselben Matrix mit einem entsprechenden Spaltenvektor resultiert. Somit ist prinzipiell zwischen der Linksmultiplikation mit einem Zeilenvektor und der Rechtsmultiplikation mit einem Spaltenvektor zu unterscheiden. Dies gilt prinzipiell auch bei sogenannten Eigenwertaufgaben. C2. Eigenwertaufgaben Bei ihrer Lösung wird ein vom Nullvektor verschiedener Vektor durch die zugehörige quadratische Matrix vervielfacht. Die Vervielfachung wird durch den sogenannten Eigenwert bestimmt. Genauer gesagt: Ein rechtsseitiger Eigenvektor x zu einer quadratischen Matrix M löst ein lineares Gleichungssystem einer bestimmten Form, nämlich Mx = λx. Bei dieser im Sinne einer linearen Transformation auffassbaren Aufgabenstellung wird der Vektor durch die Matrix nur um einen (als Eigenwert bezeichneten) Faktor λ gestreckt oder gestaucht. Er wird also entsprechend verlängert oder verkürzt, ändert aber seine Richtung nicht. Somit bildet die Matrix den Eigenvektor auf sich selbst ab er ist ein Fixvektor der Matrix. Dies gilt auch für den linksseitigen Eigenvektor y, der ym = µ y löst und mit dem Eigenwert µ

Lineare Algebra 5 assoziiert ist. Eigenvektoren der Matrix M sind der Spaltenvektor x und der Zeilenvektor y, die keine Nullvektoren sind und sich typischerweise unterscheiden. Vertauscht man alle Zeilen und Spalten der Matrix jedoch miteinander (d.h. Bestimmung der transponierten Matrix) und berechnet erneut die Eigenvektoren, dann stimmen die linksseitigen Eigenvektoren der Matrix mit den rechtsseitigen Eigenvektoren ihrer transponierten Matrix überein und auch die zugehörigen Eigenwerte entsprechen einander. Bei Eigenwertaufgaben kann man sich daher auf entweder linksseitige oder rechtsseitige Eigenvektoren konzentrieren und die jeweilige Alternative ausblenden. Bei der Berechnung von Eigenvektoren sind möglicherweise unterschiedliche Eigenwerte zu bestimmen. Diese Tatsache spielt im Zusammenhang mit stochastischen Matrizen kaum eine Rolle, sofern man sich bei ihnen auf einen bestimmten reellwertigen Eigenwert beschränken kann. Unzerlegbare stochastische Matrizen besitzen einen größten Eigenwert von Eins. Der zugehörige Eigenvektor zum Eigenwert 1 einer unzerlegbaren stochastischen Matrix hat durchwegs positive Einträge; weil er nur bis auf ein Vielfaches eindeutig bestimmt ist, empfiehlt sich die Einführung der zusätzlichen Restriktion, wonach die Summe der Einträge des Eigenvektors jeweils Eins ergibt. Anders gesagt: Der Eigenvektor wird als Wahrscheinlichkeitsvektor berechnet, wodurch seine Eindeutigkeit gewährleistet ist (siehe hierzu und für einen Überblick zu Querverbindungen von Eigenwertaufgaben zu Graphentheorie und stochastischen Prozessen das Buch von Roberts 1976). Ein Eigenvektor gehört stets zu einer quadratischen Matrix bekanntlich bildet die Matrix den Eigenvektor auf sich selbst ab. Der Eigenvektor ist stationär oder ein Fixpunkt-Vektor. Betrachtet man daher selbstbezügliche Vorgänge oder Abläufe (z.b. Output als Input bei der nächsten Iteration eines Prozesses) und Beziehungsgeflechte (z.b. Tauschsysteme), so kann man den Eigenvektor als eine spezielle Gleichgewichtssituation auffassen, gegen den unter bestimmten Bedingungen eine langfristige Konvergenz besteht. Anders gesagt: Ein Eigenvektor repräsentiert eine Ruhekonstellation, die unweigerlich mit der zugrundeliegenden Matrix verknüpft ist und das Langzeitverhalten des dort betrachteten Systems oder Prozesses betrifft.