Die darstellende Matrix und die zugehörige Basis

Größe: px
Ab Seite anzeigen:

Download "Die darstellende Matrix und die zugehörige Basis"

Transkript

1 Die darstellende Matrix und die zugehörige Basis Zu jeder linearen Abbildung f von einem endlich dimensionalen Vektorraums V in einen endlich dimensionalen Vektorraum W kann eine darstellende Matrix aufgestellt werden (vgl. Beutelspacher S. f). Zuvor muss in V und in W eine Basis festgelegt werden. Betrachtet man dann das Bild der Basisvektoren von V geschrieben als Linearkombination der Basisvektoren von W, so kann man die zugehörigen Komponenten in die Matrix A eintragen. Ein Beispiel soll dies klar machen. Sei (v, v, v ) eine Basis von V und (w,w,w,w 4) eine Basis von W. Wenn die Bilder der Basisvektoren v,v und v festliegen, ist die lineare Abbildung als Ganzes festgelegt, denn jeder weitere Vektor aus V lässt sich ja als Linearkombination von v, v und v schreiben. Gilt v = r v + s v + t v, so ist f(v) = r f(v ) + s f(v ) + t f(v ). Jede Auswahl der Bilder von v, v und v legt eine lineare Abbildung fest. Wird z.b. f(v ) = w + w 4 w + w 4, f(v ) = - w + w + w 4 und f(v ) = w + w gewählt, so lautet die zugehörige Matrix A =. 4 Um das Bild eines beliebigen Vektors v = r v + s v + t v zu bestimmen, kann man die r Matrix A mit dem Spaltenvektor s multiplizieren. Man erhält dann einen t a b vierkomponentigen Spaltenvektor und kann schließen: f(v) = a w + b w + c w + d w 4. c d Da V (so es ein reeller Vektorraum ist) isomorph zu R³ und W isomorph zu R 4 ist, kann man die Abbildung f mit der Abbildung f (x) = A x im Wesentlichen identifizieren. Mir scheint es aber wichtig zu sein, dass diese Identifikation keine Identität ist, sondern auf der Isomorphie der Vektorräume und der zugehörigen Abbildungen zwischen ihnen beruht. Diese Isomorphie wird durch die Auswahl der Basis bestimmt. Wer sich mit linearen Abbildungen beschäftigt, sollte daher nicht vergessen, welche Vektorräume eigentlich dahinter stecken und folglich das Ergebnis gelegentlich zurückübersetzen. Hierzu eine Beispielaufgabe, bei der es besonders wichtig ist, dass man sich den Unterschied zwischen den Vektoren und den darstellenden Matrizen bewusst macht: Sei V der Vektorraum der magischen x- Quadrate und f: V V definiert durch:

2 f(m) = M Zeigen Sie, dass Bild (f) V. Wie muss die Basis gewählt werden, dass die angegebene Matrix der darstellenden Matrix entspricht? Hier besteht der Vektorraum selbst aus Matrizen, nämlich aus x Quadraten, bei denen gilt: die Summe ist in jeder Zeile, jeder Spalte und in den beiden Diagonalen gleich. Diese Menge stellt einen Vektorraum dar, da jede Linearkombination von magischen Quadraten wieder ein magisches Quadrat gibt. Bei der Suche nach solchen Quadraten kann man feststellen, dass sich die magische Summe als das Dreifache der mittleren Zahl m ergibt. (Zum Beweis: Es gibt 4 Summen s, die das mittlere Feld enthalten. Diese 4 Summen enthalten jede andere Zahl je einmal. Alle Zahlen miteinander bilden Summen, die Zeilen. Daher gilt: 4 s = jede Zahl einmal + die mittlere noch mal = s + m. Also muss s = m gelten). Daher kann man ein magisches Quadrat von der Mitte m ausgehend z. B. so konstruieren, indem man zunächst bei der linken und rechten oberen Ecke beliebig viel zu m addiert oder subtrahiert und den Rest geeignet anpasst: a m b a m b m b a m m b a m b m b a m a m. Als Linearkombination lautet dieses Schema: m٠ + a ٠ + b ٠ Man sieht daraus auch, dass der zugehörige Vektorraum V die Dimension hat und v =, v =, v = eine Basis darstellen. Um nun zu prüfen, ob die Multiplikation der Matrix A = mit einem magischen Quadrats wieder zu einem magischen Quadrat führt, kann man entweder ein allgemeines magisches Quadrat von links mit M multiplizieren und entdecken, dass nur die. und. Zeile vertauscht wird und daher das Ergebnis magisch bleibt. Man kann aber auch das Wissen ausnutzen, dass die Multiplikation mit einer Matrix eine lineare Abbildung darstellt und daher nur zu prüfen ist, ob die Basisquadrate wieder auf magische Quadrate abgebildet werden. Es gilt : f (v ) = v, f(v ) = -v und f(v ) = -v. Also ist diese Abbildung ein Endomorphismus von V, das Bild bleibt in V. Bleibt man jetzt für V bei der gewählten Basis mit genau dieser Reihenfolge der Basiselemente und wählt für das Bild W = V die gleiche Basis, so würde die zugehörige darstellende Matrix lauten. Man beachte übrigens, dass weder A noch diese Matrix selbst magische Quadrate sind, sie stellen nur Zusammenhänge zwischen magischen Quadraten dar.

3 Soll A die Darstellung einer linearen Abbildung sein, so müsste gelten: f(v ) = v, f(v ) = v und f(v ) = v. Wählen wir nun als v das ursprüngliche v, so haben wir ein Quadrat, das die zweite Bedingung erfüllt. Für v können wird das ursprüngliche v wählen, müssen dann aber für v das Negative vom ursprünglichen v nehmen. Dann gilt auch f(v ) = v. Eine mögliche Basis, zu der A als darstellende Matrix passt, wäre also : v =, v =, v =. Dies ist nicht die einzige Möglichkeit, man hätte v und v auch vertauschen können und von v etwa das doppelte vom jetzigen v wählen können. Durch die darstellende Matrix ist also die Basis noch nicht ganz festgelegt. Allerdings sagt die darstellende Matrix, dass für die Basiselemente gelten muss: f(v ) = v, f(v ) = v und f(v ) = v. Man beachte an diesem Beispiel noch einmal die unterschiedlichen Rollen, die x- Quadrate hier spielen: zum einen sind es (besondere) x-quadrate, aus denen der Vektorraum besteht. Zum nächsten werden diese als Matrizen von links mit der Matrix A multipliziert (Matrizenmultiplikation, so dass das Ergebnis wieder eine Matrix ist) und zum dritten wird A als darstellende Matrix verstanden und das heißt als Matrix, die mit einem Spaltenvektor multipliziert wird und als Ergebnis wieder einen Spaltenvektor ergibt. Machen wir uns diesen Vorgang an einem Beispiel klar. M = ist ein magisches x Quadrat. f(m) = = Will man die darstellende Matrix ins Spiel bringen, so muss man M als Linearkombination der Basisvektoren darstellen. Wählt man die letzte Auswahl der Vektoren, so gilt: M = - v + v v. Multipliziert man nun A mit, so er hält man, also ist f(m) = - v + v v = Wählt man also die Bearbeitung mit der darstellenden Matrix, so muss das Ergebnis zurückübersetzt werden in ein Element des Vektorraums. Betrachtet man A als darstellende Matrix, so kann damit f auch auf Eigenwerte und Eigenvektoren untersucht werden. Aus den bisherigen Überlegungen ist schon zu ersehen, dass ein Eigenwert mit Eigenvektor v ist.

4 Als charakteristisches Polynom ergibt sich: (λ²-)(-λ)=-(λ-)²(λ+), also gibt es einen doppelten Eigenwert und einen einfachen. Die Suche nach Eigenvektoren ergibt zu λ = zunächst die Spaltenvektoren: und und für λ = - :. Aber auch hier ist man noch nicht ganz fertig, denn eigentlich geht es in der ganzen Aufgabe um magische Quadrate. Zum Eigenwert gehört also der Eigenraum, der durch v +v = und durch v = aufgespannt wird. Zum Eigenwert gehören alle Vielfachen zu v v =. Als weiteres Übungsfeld zur Übersetzung von der konkreten Vektormenge zur Darstellung über Basisvektoren bieten sich Abbildungen auf Polynommengen an (z.b. die formale Ableitung eines Polynoms als lineare Abbildung, die jedem Polynom max. 4. Grades wieder ein Polynom max. 4 Grades zuordnet genaugenommen hat das Ergebnispolynom hier max.. Grad, jedenfalls gehört es zu den Polynomen max. 4. Grades). Die Jordansche Normalform Bei der Suche nach Normalformen geht es zugleich um die Suche nach einer geeigneten Basis, auf die sich die Normalform dann bezieht. Dieses sollte man sich immer wieder bewusst machen. Befindet man sich im R n, so stellt man sich gewöhnlich die Ausgangsmatrix bezogen auf die Standardbasis vor. Dann gilt sogar : f(x) = A x. Sucht man jetzt nach Eigenwerten und Eigenvektoren und hat das Glück, eine Basis aus Eigenvektoren zu finden, dann bezieht sich die zugehörige Diagonalmatrix auf solch eine λx λ x Basis aus Eigenvektoren. Denn es gilt Ax =, wobei die x i die Komponenten bzgl. der Μ λnxn neuen Basisvektoren sind. Sind alle x i bis auf eines und dieses eine, so erhalten wir an dieser Stelle das λ i, also wird dieser Basisvektor auf sein λ i -faches abgebildet. Gibt es keine Basis aus Eigenvektoren, so kann es auch keine Diagonalmatrix geben. Man könnte sich mit dieser Feststellung begnügen, aber in diesem Fall muss man das nicht. Manchmal kann man bei der Suche nach einer Verallgemeinerung durchaus fündig werden und so ist das auch hier. Es gibt die Idee von verallgemeinerten Eigenräumen. Diese Idee hängt mit dem Minimalpolynom zusammen (zur Definition des Begriffs Minimalpolynom vergleiche Beutelspacher S. 6).

5 Nehmen wir an, das Minimalpolynom zerfällt in Linearfaktoren. Geht das über dem zugehörigen Körper nicht, so nehme man eine geeignete Erweiterung des Körpers (z.b. C statt R). Hätte das Minimalpolynom nur einfache Nullstellen, so gäbe es eine Basis aus Eigenvektoren. Nehmen wir also nun an, dies sei leider nicht der Fall. Beispiel (zweidimensional): Schauen wir uns zunächst den einfachsten solchen Fall an. Wir befinden uns in einem - dimensionalen Vektorraum und das Minimalpolynom hat eine -fache Nullstelle λ. Damit gilt: (f λ)² v = für alle v aus V, aber (f λ) v ist noch nicht für alle v. Wählt man ein v für das (f - λ)v noch nicht ist, so ist dieses v kein Eigenvektor (Es gibt nur den Eigenwert λ in diesem Beispiel). v = (f λ) v aber ist ein Eigenvektor, denn (f λ ) v = (f λ ) ² v =. Wählt man nun als Basis v und v, so gilt : f(v ) = v + λ v und f(v ) = λ λ λ v. Die darstellende Matrix lautet also : bzw, wenn man die Reihenfolge der λ λ Basisvektoren vertauscht. Beispiel (dreidimensional): Für größere Dimensionen will ich zunächst vom Ergebnis her zurückgehen und schauen, was die zugehörige Matrix fordert. Je nach Buch findet man die sogenannte Jordansche Normalform in der Form mit en direkt oberhalb oder direkt unterhalb der Diagonalen. Ich bevorzuge die en direkt unterhalb der Diagonalen (weil ich es selbst so gelernt habe), aber wie wir gleich sehen werden, ist es nur eine Frage der Sortierung der Basisvektoren. Schauen wir uns zunächst einen -dimensionalen Jordanblock an: λ λ λ bzw. λ. λ λ Dies heißt für die Bilder der Basisvektoren: f(v ) = λ v + v, f(v ) = λ v + v und f(v ) = λ v bzw. f(v ) = λ v, f(v ) = v + λ v, f(v ) = v + λ v. Im ersten Fall ist v ein Eigenvektor und im zweiten Fall übernimmt v diese Rolle. Von der einen Darstellung zur anderen wurde also nur die Reihenfolge der Basisvektoren geändert. Wir werden schließlich sehen, dass bei der Berechnung der Basisvektoren zur Jordanform die Eigenvektoren erst am Schluss bestimmt werden. Von daher hat die erste Reihenfolge durchaus ihren Sinn. Wie findet man nun v und v? Dazu schauen wir uns an, welche Gleichungen von v und v gelöst werden. Der Eigenvektor v löst die Gleichung (f λ) v =. Da gilt (f λ) v = v, folgt (f λ)² v =. Analog folgt aus (f λ ) v = v, dass (f λ)³ v = sein muss. Daher bietet sich an, erst v aus (f λ)³ v = zu berechnen und daraus ergibt sich dann v und v. Der Vektor v muss ein Vektor sein, für den (f λ)² v noch nicht ist (denn dies wird ja schließlich v ). Dimension n Bevor wir zu allgemeinen Überlegungen kommen, sollten Sie sich ein paar Konstellationen selbst durch überlegen:

6 Was gilt jeweils für die Bilder der Basisvektoren, wenn die darstellende Matrix wie folgt aussieht? Wie lautet das charakteristische Polynom? Wie das Minimalpolynom? Was gilt für die Dimension der Eigenräume? Wie kann man die Faktoren (f λ) ins Spiel bringen? Scheint Ihnen die Betrachtung weiterer Unterräume sinnvoll/interessant? (Welche Basisvektoren scheinen in einer bestimmten Form zusammenzugehören?). A =,. A =,. A =, 4. A =,. A =, 6. A =, 7. A = 8. A = Ich hoffe, Sie haben erkannt, welchen Unterschied es macht, wenn in der Diagonalen plötzlich die Zahl oder auftaucht. Dies hat eine ganz andere Bedeutung als eine oder in der darunter liegenden Nebendiagonalen. Wie kann es sein, dass im ersten und i m zweiten Beispiel sowohl das charakteristische als auch das Minimalpolynom gleich sind und doch die Dimension der Eigenräume nicht? Die Dimension des verallgemeinerten Eigenraums (siehe unten) aber ist wieder gleich. Nun zum allgemeinen Fall: Wann gibt es solche verallgemeinerten Eigenvektoren wie v und v, wie sie im dimensionalen Beispiel auftraten? Gehen wir zunächst von einer beliebigen linearen Abbildung von V nach V aus. V sei endlich dimensional mit Dimension = n. Nehmen wir weiter an, das charakteristische Polynom zerfalle in Linearfaktoren. Sind alle Nullstellen des charakteristischen Polynoms verschieden, so gibt es n linear unabhängige Eigenvektoren. Wählt man diese zur Basis, so hat die darstellende Matrix Diagonalgestalt. Anders kann es sein, wenn manche Nullstellen des charakteristischen Polynoms mehrfach auftreten. Taucht z.b. ein λ m-fach auf, so ist zu prüfen, ob der zugehörige Eigenraum ebenfalls die Dimension m hat. Ist dies nicht der Fall (was man auch daran erkennen kann, dass ebenso das Minimalpolynom λ noch als mehrfache Nullstelle, sagen wir r-fache Nullstelle, besitzt), so ist die Suche nach einem verallgemeinerten Eigenraum angebracht. (X - λ) r sei also ein Faktor des Minimalpolynoms. Finden wir für alle λ jeweils alle Vektoren, die für das zugehörige r von der Abbildung (f λ) r auf Null abgebildet werden, so haben wir damit ein Erzeugendensystem für ganz V gefunden. Alle Linearkombinationen solcher Vektoren werden vom Minimalpolynom wirklich auf Null abgebildet (da jede Komponente von einem der Faktoren auf Null abgebildet wird). Man beachte, dass für verschiedene λ die zugehörigen r-werte durchaus verschieden sein können, genauso wie die zugehörige Vielfachheit m im charakteristischen Polynom.

7 Gleiches m muss nicht zu gleichem r führen und umgekehrt. A priori weiß man nur, dass immer r m sein muss. Aufgrund dieser Überlegung lassen sich verallgemeinerte Eigenräume also wie folgt definieren: Sei (X - λ) r ein Faktor des Minimalpolynoms von f, d.h. λ sei eine r-fache Nullstelle. Die Menge aller Vektoren aus V, die von der Abbildung (f λ) r auf Null abgebildet werden (also der Kern von (f λ) r ) heißt verallgemeinerter Eigenraum zum Eigenwert λ. Dass es immer eine Zerlegung von V in verallgemeinerte Eigenräume gibt, zeigt folgende Überlegung: Ist (X λ) r solch ein Faktor des Minimalpolynoms. Dann gilt: Kern (f λ) r = Kern (f λ) r+ und V = Bild (f λ) r Kern (f λ) r (direkte Summe) (vgl. Beutelspacher S. 8 ). Der Kern von (f λ) r hat mindestens die Dimension r. Macht man eine Induktion über die Dimension von V, so kann man die Induktionsvoraussetzung auf Bild(f λ) r anwenden und erhält, dass dieser Raum in verallgemeinerte Eigenräume zerlegt werden kann. Das Minimalpolynom von f auf Bild(f λ) r ist dabei das Minimalpolynom von f ohne den Faktor (f λ) r, denn alle Elemente werden durch dieses gekürzte Polynom auf Null abgebildet, da sie den Faktor (f λ) r schon in sich enthalten und damit die restlichen Faktoren reichen, um jedes Element auf Null abzubilden. Zur Direktheit der Summe Bild (f λ) r Kern (f λ) r : Sei v ein Element aus dem Durchschnitt: Dann gibt es ein y mit v = (f λ) r y und (f λ) r v = (f λ) r y =, also liegt y im Kern von (f λ) r, welcher aber zugleich der Kern von (f λ) r ist. Also ist schon v = (f λ) r y =. Hier spielt die Maximalität von Kern (f λ) r herein. (X λ) r ist ja deswegen ein Faktor des Minimalpolynoms, weil es für alle kleineren Potenzen noch Elemente gibt, die erst von höheren Potenzen auf Null gesetzt werden. Noch höhere Potenzen von (f λ) bringen aber in dieser Hinsicht nichts Neues mehr. Um die verallgemeinerten Eigenräume zu finden, beginnt man bei den Lösungen von (f - λ) r v = und (f - λ) r- v. Sei B r eine Basis dieses Lösungsraums. Dann gilt für alle v aus B r : (f - λ) r- ((f - λ) v) =, d.h. (f - λ) v ist ein Vektor, auf den die Anwendung (f - λ) r- schon Null ergibt. Um alle Lösungen zu (f - λ) r- v = und (f - λ) r- v zu erhalten, ergänze man soweit nötig alle Elemente der Form (f - λ) v mit v aus B r zu einer Basis B r-. So kann man fortfahren bis zur Lösung von (f - λ) v =. Im letzten Schritt erhält man dabei die Eigenvektoren. Insgesamt hat man eine Basis für den gesamten verallgemeinerten Eigenraum. Vielleicht sollte ich noch begründen, warum alle Elemente der Form (f - λ) v mit v aus B r linear unabhängig sind. Angenommen, es gäbe eine Darstellung der Null aus solchen Vektoren. Man könnte (f - λ) ausklammern und hätte, dass (f - λ) angewandt auf eine Linearkombination aus den Vektoren von B r Null ergibt. Da aber B r eine Basis aller Vektoren darstellt, bei denen (f - λ) r- v nicht Null ergeben darf, kann diese Linearkombination nur die triviale (d.h. der Nullvektor) gewesen sein.

8 Dies beweist, dass man durch dieses Verfahren tatsächlich eine Basis für den verallgemeinerten Eigenraum findet. Passend sortiert ergibt sich für darstellende Matrix eine λ Κ λ Κ Zusammensetzung aus Blöcken der Art. Μ Μ Ο Μ Κ λ Die Jordansche Normalform lässt sich also definieren das die darstellende Matrix von f bzgl. einer geeignet sortierten Basis aus verallgemeinerten Eigenvektoren. Sieht beispielsweise die darstellende Matrix so aus : λ λ λ λ λ λ, so ist r=. λ Das Minimalpolynom lautet (X λ)³, da der größte Block Dimension hat. B hat Element. B hat Elemente und B hat ebenfalls Elemente. Das Element von B ist der erste Basisvektor, v ist sein Bild bei (f λ) und v dessen Bild bei (f λ) (ein Eigenvektor aus B ). v 4 ist ein zweites Element aus B und v sein Bild bei (f λ) (wieder ein Eigenvektor aus B ). v 6 schließlich ist das dritte Element aus B und v 7 das dritte aus B (nämlich das Bild von v 6 unter (f λ)). Auch wenn eine Abbildung nicht nur einen Eigenwert besitzt, wird für jeden Eigenwert jeweils die Lösung zu (f λ i ) ri wie oben beschrieben gesucht. Hierzu eine Beispielaufgabe mit Eigenwerten. Im R 4 sei die lineare Abbildung f(x) = Ax 4 7 mit A = gegeben. Gesucht eine Matrix B so, dass B A B in der 7 Jordanschen Normalform ist. Man beachte, dass diese Matrix B genau die Basisvektoren als Spaltenvektoren enthält, auf die sich die Jordansche Normalform bezieht. Zunächst sieht man sehr schnell, dass hier das charakteristische Polynom ( λ)² ( λ)² lautet. Dass dieses auch das Minimalpolynom ist, kann man daran erkennen, dass sowohl A E, als auch A E den Rang hat, also die jeweiligen Eigenräume eindimensional sind.

9 Für den Eigenwert erkennt man auch sofort, dass v = ein Eigenvektor ist. Ob wir genau diesen Eigenvektor für die Basis B wählen werden oder ein Vielfaches davon, wird sich bei der Rechnung ergeben. Die Jordansche Normalform kann als geschrieben werden. Suchen wir zunächst die ersten zwei Basisvektoren, die zum Eigenwert gehören: Wir brauchen zuerst eine Lösung von (A E)² =, die noch keine Lösung von (A E) = ist. (A E)² = Der zweite Einheitsvektor ist eine Lösung für diese Teilfrage. Sein Bild bei (A- E) ist, also wäre dieser Vektor als zweiter Basisvektor zu wählen. Die Lösungen zum. Eigenwert sind nicht ganz so einfach zu sehen. A E = und (A-E)² = Wählt man als Lösung für (A E )² v = und (A E) v den Vektor v = 68, so erhält man v 4 = (A E) v = 7 9. Die Transformationsmatrix B aus den neuen Basisvektoren lautet also

10 Man beachte: Die verallgemeinerten Eigenräume sind (wie die echten Eigenräume) invariante Unterräume U (invariante Unterräume sind definitionsgemäß Unterräume für die gilt: f(u) U). Das sieht man leicht, wenn man sich die Bilder der Basiselemente zur Jordanform anschaut, denn diese sind Linearkombination aus den Basisvektoren der Eigenräume. In der Matrix zeigt sich diese Tatsache darin, dass sie aus quadratischen Kästen entlang der Diagonale besteht und der Rest der Matrix mit Null besetzt. ist. Ein zu einem Jordankästchen gehörender Unterraum U ist unzerlegbar in dem Sinne, dass es keine Zerlegung in mehrere invariante Unterräume gibt. (Betrachten Sie dies als Definition für unzerlegbar!). Er besitzt zwar (so er mehrdimensional ist) noch invariante Unterräume, z.b. den Unterraum aller Vielfachen eines Eigenvektors, aber zu diesem gibt es keinen weiteren invarianten Unterraum, der mit den Vielfachen dieses Eigenvektors zusammen ganz U aufspannen würde. Dass es eine Zerlegung des gesamten (endlichdimensionalen) Vektorraums V in unzerlegbare Unterräume geben muss, ist klar. Entweder ist V selbst unzerlegbar oder es gibt eine Zerlegung. Bei einer solchen Zerlegung haben die Unterräume eine geringere Dimension. Sie sind selbst entweder unzerlegbar oder können weiter zerlegt werden. Da die Dimension endlich ist, muss die Zerlegung der Unterräume irgendwann bei unzerlegbaren Unterräumen enden. Dies beweist die Zerlegung in unzerlegbare Unterräume. Sind alle unzerlegbaren Unterräume eindimensional, existiert eine Zerlegung in Eigenräume und damit eine Basis aus Eigenvektoren, ansonsten nicht. Was die Anwendung des Minimalpolynoms auf einen Vektor v angeht, gilt es folgende zwei Aspekte zu betrachten: Liegt das Minimalpolynom in Faktoren vor, so ist es gleichgültig, welcher Faktor zuerst zur Geltung kommen soll. Im Allgemeinen ist die Reihenfolge der Anwendung von Abbildungen nicht kommutativ, innerhalb des Minimalpolynoms dürfen die Faktoren aber vertauscht werden. Für jedes Polynom von f gilt nämlich : f p(f) = p(f) f, da f als lineare Abbildung auf die Summanden von p(f) verteilt werden kann und bei jedem Summanden nur die Potenz von f um eines erhöht wird. Weiterhin gilt für Skalare λ: λ p(f) (v) = p(f) (λv). Dies liegt wiederum an der Linearität von f und aller Potenzen (d.h. Mehrfachausführungen) von f. Sollten Sie sich fragen, wie die Jordansche Normalform zu ihrem Namen kommt und warum sie entwickelt wurde, hier ein paar wenige Daten: Camille Marie Ennemond Jordan (geb. am.88, gestorben am..9) war zunächst Bergbauingenieur und dann Mathematikprofessor an der Ecole Polytechnique. Er entwickelte die nach ihm benannte Normalform 87 im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme. Dass seine Normalform hilft, Differentialgleichungssysteme zu lösen, soll an folgendem Beispiel gezeigt werden: d Liegt ein System von Differentialgleichungen in der Form x(t) = A x (t) vor und A ist in dt der Jordanschen Normalform, so kann die Lösung leicht bestimmt werden. λ Sei A z.b. λ, d.h. x = λ x, x = x + λ x und x = x + λ x. Dann lautet die λ allgemeine Lösung : x (t) = a e λt, x (t) = (a + a t ) e λt,

11 x (t) = (a + a t + a t²/) e λt, wobei a, a und a beliebig sind. Dass diese Gleichungen die Differentialgleichung lösen, kann durch Ableiten leicht verifiziert werden. Dass dies die einzig möglichen Lösungen sind, wird dann in einer Vorlesung über Differentialgleichungen gezeigt. Ist A noch nicht in der Jordanform gegeben, so kann die zugehörige Jordanform ermittelt werden. Dann darf aber das Zurückübersetzen der Lösungen in den ursprünglichen Kontext nicht vergessen werden. d Hierzu ein Beispiel: Gesucht sei die allgemeine Lösung zu x(t) = A x (t) mit A = dt 8. Die Berechnung des charakteristischen Polynoms ergibt als dreifache Nullstelle. Das Minimalpolynom ist gleich dem charakteristischen, also lautet die Jordansche d Normalform: JF =. Damit lautet die ursprüngliche Gleichung x(t) = A x (t) = dt B JF B - x(t) und y(t) = B - d x(t) erfüllt die Gleichung y(t) = JF y (t). dt y(t) hat also die vorhin erwähnte Form. Die Lösung für das ursprüngliche Problem x(t) errechnet sich als x(t) = B y(t). 6 Im Beispiel könnte gewählt werden: B - = und B=. 6 Bund B - wurde hier so gewählt, dass beide nur ganzzahlige Werte enthalten. Normalerweise bekommt man das nicht so hin, auch nicht, wenn man B mit dem vorgestellten Verfahren zur 6 Bestimmung der Basis zur Jordanform errechnet. Wer beginnt schon mit dem Vektor als Lösung von (f-)² v? Wählt man B wie oben, so folgt: x (t) = (-6a + a + a + (a + a ) t + a t²/) e t, x (t) = ( - a + a + a t) e t und x (t) = (-a + a + a + (a + a ) t + a t²) e t. 6 Würde man statt den Vektor wählen, erhielte man B = x (t) = (a + 6 a + a + (6 a + a ) t + a t²) e t, x (t) = ( a + a t) e t und x (t) = ( 48 a + 4 a + (48 a +4 a ) t + a t²) e t und damit Diese Lösung sieht ein bisschen anders aus. Dass es die gleiche Lösungsmenge beschreibt, liegt an der entsprechenden Belegbarkeit von a, a und a.

12 Lauten z.b. die Anfangsbedingung x() =, x() = und x () = 4, so ergibt sich in beiden Fällen die Lösung x (t) = ( - 76 t t²) e t, x (t) = ( -6 t) e t und x (t) = ( 4-4 t - 6 t²) e t. Man berechne zur Übung das charakteristische Polynom und das Minimalpolynom sowie eine Basis, auf die sich die Jordanform bezieht (diese muss nicht mit B identisch sein), so wie damit die Lösung des gegebenen Anfangswertproblems. Flächen. Ordnung (Quadriken) Vektoren im R² und R³ kann man sich auch geometrisch vorstellen. Von daher kann man sich die Frage stellen, was lineare Abbildungen anschaulich gesehen mit Vektoren machen. Noch interessanter könnte die Frage sein, was lineare Abbildungen mit von Vektoren begrenzten Flächen oder räumlichen Gebilden machen. Als besondere Abbildungen lernt man die orthogonalen Abbildungen (siehe Beutelspacher S. 6) und die selbstadjungierten Abbildungen (siehe Beutelspacher S. 7) kennen. Orthogonale Abbildungen stellen Drehungen oder Spiegelungen dar. Im R² besitzen die Drehungen keine Eigenvektoren (es sei denn, es wäre eine Drehung um 8 Grad), die Spiegelungen haben als Eigenvektoren die Spiegelachse (Eigenwert ) und den dazu senkrechten Vektor mit Eigenwert. Im R³ gibt es bei orthogonalen Abbildungen einen Eigenwert oder immer. Liegt nur ein Eigenwert vor mit einem eindimensionalen Eigenraum, so liegt eine Drehung um die Achse des zugehörigen Eigenvektors vor. Gibt es nur den Eigenwert zu einem eindimensionalen Raum, so wird die gedrehte Figur zusätzlich an der zur Drehachse senkrecht stehenden Ebene durch den Ursprung gespiegelt. Bei den selbstadjungierten Abbildungen bilden die selbstadjungierten Projektionen eine besondere Untergruppe. Def. Eine Projektion ist ein Endomorphismus mit p² = p. Eine mehrfache Ausführung ändert also nichts mehr am Bild. Wie man sieht, lautet des Minimalpolynom: x² - x = (wenn es sich nicht trivialerweise um die Identität oder die Nullabbildung handelt), als Eigenwerte kommen nur und in Frage. V = Bild (p) Kern(p), wobei p auf Bild(p) als Identität wirkt und auf Kern(p) (wie immer) als Nullabbildung. Man sagt auch, p sei eine Projektion auf Bild(p) entlang Kern(p). Ist eine Projektion zudem selbstadjungiert, so stehen Kern und Bild aufeinander senkrecht, wir haben es also dann mit einer senkrechten Projektion zu tun. Zur Begründung sei x aus dem Bild und y aus dem Kern, dann gilt für das Skalarprodukt von x und y : [x,y] = [p(x),y] = [x, p(y)] = [x,] =. Alle selbstadjungierte Abbildungen haben die Eigenschaft, dass bzgl. jeder ONB (Orthonormalbasis) die darstellende Matrix eine symmetrische Matrix ist und es eine ONB von Eigenvektoren gibt. (vgl. Beutelspacher S. 7f)

13 Anschaulich bedeutet dies, dass es immer aufeinander senkrecht stehende Eigenvektoren gibt. In die Richtung eines Eigenvektors stellt die Abbildung dann eine Streckung (mit Streckungsfaktor λ) dar. Sind die Eigenwerte verschieden, so wird ein Vektor, der nicht einem Eigenraum angehört bzgl. seiner Komponenten unterschiedlich gestreckt, so dass man dem Bild die Abbildung und das Urbild meist nicht direkt ansehen kann. Aber es bleibt doch eine affine Ähnlichkeit zwischen Bild und Urbild erhalten. Schaut man sich nun neben von geraden Linien begrenzten Figuren auch andere geometrische Gebilde an, so kann man durchaus bestimmte Typen von Figuren ausmachen, die durch affine Abbildungen (d.h.. lineare Abbildungen und Verschiebungen) ihren Typ nicht verändern. Gerade Linien bleiben bei affinen Abbildungen gerade. Man denke sich die affinen Abbildungen angewendet auf Punkte, die durch ihre Ortsvektoren bestimmt sind. Wie ist es mit krummen Linien? Bleiben Kugeln Kugeln? Bei Verschiebungen bleiben Kugeln sicher Kugeln, bei Drehungen auch, ebenso bei Spiegelungen. Aber wenn die Abbildungen nicht orthogonal sind? Bei senkechten Projektionen mit einem dimensionalen Bild werden aus Kugeln Kreise, und zwar gefüllte Kreisflächen, egal ob wir uns die Kugel als gefüllte Kugel oder nur als Kugeloberfläche vorgestellt haben. Kommen andere Eigenwerte ins Spiel (eine selbstadjungierte Abbildung etwa mit einem Eigenwert und zwei weiteren verschiedenen), so entstehen Ellipsen. Aus einer Bildellipse kann man die ursprüngliche Kugel nicht rekonstruieren, denn der Mittelpunkt kann überall auf der Geraden liegen, die auf den Mittelpunkt der Ellipse abgebildet wurde. Um den Typ einer geometrischen Form nicht derartig zu verändern, wollen wir uns im weiteren nur auf solche affine Abbildungen beschränken, die invertierbar sind, die also dreidimensionale Figuren dreidimensional lassen und ebene Figur eben. Die Figuren, die ich hier genauer betrachten möchte, sollen sich mit Matrizen und linearen Abbildungen beschreiben lassen. Definition: Fläche. Ordnung Quadrik Eine Fläche. Ordnung F von V ist eine Teilmenge eines endlichdimensionalen reellen Vektorraums V, so dass existieren: (i) eine quadratische Funktion Q von V nach R (ii) eine lineare Funktion g von V nach R (iii) ein Element r R derart, dass gilt: F = {x x V und Q(x) + g(x) + r = } Q(x) + g(x) + r = heißt Gleichung von F. Ist g = (die Nullabbildung), dann heißt F eine Mittelpunktsfläche. Zu V sei zunächst eine ONB gegeben. Dann kann Q mit Hilfe einer symmetrischen n x n Matrix A beschrieben werden und g durch einen n-dimensionalen Zeilenvektor. g(x) ist dann nichts anderes als das Standardskalarprodukt dieses Vektors (wenn man ihn als Spaltenvektor sähe)mit dem Vektor x (genaugenommen den Komponenten von x bzgl. der ONB).

14 Als quadratische Funktion soll hier die Multiplikation des Zeilenvektors x mit dem Ergebnis von A x (als Spaltenvektor) verstanden werden. Ein Beispiel: Q(x) = (x x x ) x x, g(x) = ( 4 8) x x x x und r = -7 Multipliziert man aus, so erhält man: x ² + x ² + x ² + x x + x x x x + 4 x x + 8 x 7 = als Gleichung für F. Ist die Gleichung gegeben, so kann man leicht daraus die Matrix aufstellen. In die Hauptdiagonale kommen die Werte bei den Quadraten, symmetrisch werden die Hälften der Werte bei den gemischten Gliedern eingetragen. Wie schaut nun die Menge aller Punkte im R³ aus, die diese Gleichung erfüllen? Man könnte zunächst ein paar Punkte berechnen, z.b. Schnittpunkte mit den Koordinatenachsen, so diese existieren. Für die x Achse wäre die Gleichung x ² + 4 x 7 = zu lösen. Hier gibt es Lösungen. Für die x -Achse hätten wir: - x 7 =, also einen Punkt. Bei der x -Achse wären es mit x ² + 8x 7 = wieder zwei Punkte. Man sieht hier zumindest schon, dass es auch von g und r abhängt, ob es solche Schnittpunkte gibt oder nicht. Bei jedem vorgegebene Wertepaar von Koordinaten gibt es maximal Möglichkeiten für die. Koordinate. Unterzieht man nun solche Flächen bestimmten Abbildungen, so findet man eine überschaubare Menge von Typen, die diesen Flächen zugeschrieben werden können. Bleiben wir zunächst bei orthogonalen Abbildungen und Verschiebungen., d.h. wir drehen die Fläche im Koordinatensystem und verschieben sie. Anschaulich ist wohl klar, dass dann die Form der Fläche erhalten bleiben sollte. Um ehrlich zu sein, stelle ich mir persönlich sogar lieber vor, ich lasse die Figur, wie sie ist, und drehe die Achsen bzw. verschiebe den Ursprung. Ich schaue also auf die gleiche Figur von einem etwas anderen Blickwinkel aus. Im Grunde ist es für den Typ der Figur egal, ob ich die Figur drehe oder die Achsen. Es wäre nur eine Drehung in die entgegengesetzte Richtung. Genauso ist es mit der Verschiebung des Ursprungs bzw. der Verschiebung der Figur. Ich hoffe, dass diejenigen, die lieber die Figur bewegen wollen, sich die entsprechende Bewegung bei den nun folgenden Überlegungen vorstellen können. Der erste Schritt ist die sogenannte Hauptachsentransformation, d.h. suchen die Achsen bezüglich derer die Matrix A ihre Eigenvektoren besitzt. Da A eine symmetrische Matrix ist, ist sie diagonalisierbar und die Eigenwerte sind reell. Das charakteristische Polynom lautet: - λ³ + 4λ² - λ 6 und hat die Nullstellen λ =, λ =, λ = -.

15 An dieser Stelle sortieren wir die Eigenwerte so, dass zuerst die positiven, dann die negativen Eigenwerte kommen. Sollte Null auch einer sein, soll er am Schluss genannt werden. Bei der Bestimmung der zugehörenden normierten Eigenvektoren kann man v =, v = und v = finden. 6 Entlang dieser Eigenvektoren stellt Ax also jeweils eine Streckung um den entsprechenden Faktor dar. Q(x) gibt dann das λ-fache des Quadrats der Länge von x an. Drehen wir nun das Koordinatensystem so, dass diese Richtungen die Richtungen der Achsen sind, so lautet der quadratische Teil: x ² + x ² - x ² (mit den neuen Koordinaten x,x,x ), die gemischten Terme sind verschwunden. Aber auch die lineare Funktion g(x) muss angepasst werden. g wird jetzt auf die transformierten Vektoren angewendet, d.h. auf Komponenten, die sich auf die neue Basis beziehen.. Es interessieren ja nun für die Beschreibung von g die Bilder der neuen Basisvektoren. Dafür verwenden wir die Matrix B, die aus den Eigenvektoren als Spalten gebildet werden und berechnen gb. Man beachte: B ist eine orthogonale Matrix, ihr Inverses ist ihr Transponiertes (was es leichter macht, auf die ursprünglichen Vektoren zurückzurechnen). B ist aber nicht symmetrisch gb ergibt: (4 8) = Dies bedeutet, dass der erste Basisvektor auf abgebildet wird, der zweite auf und 6 der dritte auf. 6 Die Gleichung für die Fläche F lautet also mit den neuen Koordinaten: 4 6 x ² + x ² - x ² + x x + x 7 =. 6 In einem zweiten Schritt wollen wir den Ursprung des neuen Koordinatensystems verschieben, indem wir quadratisch ergänzen. Wir schreiben die Gleichung folgendermaßen um: ( x + )² + (x - )² - (x )² = Das neue x ersetzt nun x +, x ersetzt x - und x ersetzt x

16 7 Also Konstante am Schluss ergibt sich. 6 7 Zuletzt kann die Gleichung noch durch diese dividiert werden und die auf die andere 6 Seite gebracht werden. Wir erhalten: x ² + x ² - x ² = Wie wir einer Übersicht (vgl. Seite 6 ) entnehmen können, 6 handelt es sich um ein einschaliges Hyperboloid. Schritt kann immer angewandt werden, Schritt zumindest für diejenigen neuen Koordinaten, die nicht zu einem Eigenwert der Matrix A gehören, also in der Gleichung nach Schritt wirklich noch vorkommen. Besitzt A nicht den Eigenwert, so kommt man nach Schritt zwei immer zu einer Form, in der die Koordinaten nur noch im Quadrat vorkommen. Anders kann es sein, wenn bei A auch der Eigenwert vorhanden ist, manche Koordinaten also nach Schritt gar nicht mehr quadratisch vorkommen. Ist in diesem Fall noch mehr als eine Koordinaten linear in der Gleichung vorhanden, so kann das Koordinatensystem noch einmal gedreht werden, so dass danach nur noch eine Koordinate im Linearteil vorkommt. Man nennt diesen. Schritt auch Drehung des Ausartungsraums, denn der Kern der Abbildung Ax wird auch als Ausartungsraum bezeichnet. Nur innerhalb dieses Unterraums wird noch einmal gedreht. Die anderen Eigenräume bleiben wie nach dem ersten Schritt (evtl. verschoben durch den. Schritt). Auch dies soll wieder anhand eines Beispiels aufgezeigt werden: Die Gleichung von F laute: x ² - 6 x + 8 x 7 =. Zu g gehört also jetzt der Zeilenvektor ( 6 8). Er ist noch in zwei Richtungen nicht. Der Ausartungsraum ist in diesem Fall die x x -Ebene. In ihr sollen nun die Basisvektoren so gelegt werden, dass g nur auf einem der beiden nicht die Nullabbildung ist. Da das Bild von g eindimensional ist, ist dies immer möglich. Wir suchen somit den Kern von g. Dieser wird aufgespannt aus allen Vielfachen von und den Vielfachen von 4. Wir drehen nun also das Koordinatensystem so, dass erhalten bleibt, 4 die zweite Richtung beschreibt und der auf diesen beiden Vektoren senkrecht stehende Einheitsvektor die dritte Richtung angibt. g(v ) =, also lautet die neue Gleichung: 4 x ²+ x 7 = bzw. x ² + (x,7) =.

17 Die 7 lässt sich in einem 4. Schritt noch durch eine Verschiebung um,7 in x -Richtung beseitigen. Geteilt durch lautet die Gleichung schließlich:, x ² + x =. Diese Gleichung beschreibt einen parabolischen Zylinder (vgl. Seite 6). Da das Bild von g normalerweise eindimensional ist (wenn g nicht die Nullabbildung ist), lässt sich der Ausartungsraum immer so drehen, dass nur der letzte Basisvektor nicht zum Kern von g gehört. Dabei kann man den Kern von g durch eine ONB darstellen und durch geeignete Wahl des letzten Basisvektors diese ONB zu einer ONB des gesamten Vektorraums ergänzen. Also ist Schritt und 4 immer ausführbar. Die Durchführung von Schritt bis 4 bringt schließlich folgende Typen von Darstellungen der Flächen. Ordnung hervor : (i) a x ² + a x ² a m x m ² = oder (ii) a x ² + a x ² + + a m x m ² = oder (iii) a x ² + a x ² + + a m x m ² + x n = bzw. x n = a x ² + a x ² + + a m x m ² Dabei ist in den ersten beiden Fällen m n (die Dimension des Raum, in dem die Fläche liegt), im dritten Fall ist m < n. Die Koeffizienten a i seien so sortiert, dass zunächst positive und dann negative Koeffizienten vorkommen. a i = wird hier von vornherein weggelassen. Die Typen (i) und (ii) sind punktsymmetrisch zum Ursprung des zuletzt betrachteten Koordinatensystems. Je nach Vorzeichen der a i ergeben sich unterschiedliche Typen. Diese sollen nun für n = und n = benannt werden. n= : Es handelt sich um die sogenannten Kegelschnitte: (i) m = : a, a > oder a, a < : nur der Nullpunkt a und a haben unterschiedliches Vorzeichen : ein Paar von Ursprungsgeraden (ii) (iii) m = : die x Achse m = : a, a > : Ellipse, a >, a < : Hyperbel a, a < : leere Menge m = : a > : Geradenpaar (parallel zur x Achse) a < : leere Menge m = : Parabel Warum die Kegelschnitte Kegelschnitte heißen, woher die Namen Ellipse, Parabel und Hyperbel stammen und warum (und wie) diese Begriffe auch in der Sprachwissenschaft verwendet werden, können Sie folgenden Seiten entnehmen: n = : Um eine Vorstellung zu bekommen, lohnt es sich, sich die Spuren auf den Koordinatenebenen zu überlegen, also eine Koordinate Null zu setzen.

18 Eine Übersicht finden Sie auf : Als Beispiel sei das einschaliges Hyperboloid genannt (a x ² + a x ² + a x ² = mit a, a >, a < ) : es hat als Spur in der neuen x x - Ebene und in den dazu parallelen Ebene jeweils eine Ellipse. In der x x - und der x x -Ebene und dazu parallelen Ebenen ergeben sich Hyperbeln. Bisher wurden die Koordinatentransformationen nur durch Drehungen und Verschiebungen vorgenommen. Der Maßstab der Koordinatenachsen wurde noch nicht verändert. Lässt man auch das zu, spricht man von affinen Normalformen, die dabei entstehen. Streckungen in Richtung der Hauptachsen erlauben nämlich, dass die Werte der Koeffizienten a i oder werden können. Wie wir schon an der Typeneinteilung gesehen haben, spielen nur die Vorzeichen wirklich eine Rolle. Als Streckung in Richtung der Hauptachsen ist eine Faktor von zu wählen. ai Man könnte sogar zulassen, dass auch die Koordinatenachsen nicht mehr senkrecht aufeinander stehen. Einzige Bedingung der Verformung sollte lediglich sein, dass sich die Dimension nicht ändert, dass die Abbildung also invertierbar ist. Auch wenn man solche Koordinatentransformationen zulässt, kann man zu den genannten Typen von Flächen. Ordnung kommen. Als Beispiel sei eine Fläche im R² genannt: x ² + x ² - x x + x 4x + =. Um den gemischt quadratischen Term wegzubekommen, kann man wie folgt quadratisch ergänzen: (x x )² - x ²+ (x x ) + x + = Neue Koordinaten, bei denen x x durch x ersetzt wird, ergeben als Gleichung: x ² - x ² + x + x + =. Quadratisches Ergänzen, um die linearen Terme zu beseitigen, führt zu : (x,)² - (x - )² = Eine abschließende Streckung bzw. Stauchung entlang der Koordinatenachsen, die nach der Verschiebung entstehen, führt zu : x ² - x ² + =. 7 Aber auch x ² x ² + 4 = beschreibt nicht mehr eine euklidisch äquivalente (kongruente) Figur zur Ausgangsfigur, da die neuen Achsen und nicht mehr aufeinander senkrecht stehen. Die neuen Achsen sind auch nicht die Symmetrieachsen der ursprünglichen Figur, wie das bei der sog. Hauptachsentransformation der Fall ist.

19 Die Hyperbel wird also durch diese Koordinatentransformation in die Breite gezogen und die Symmetrieachsen würden verschoben, würde man sich vorstellen, dass die neuen Achsen senkrecht zueinander gestellt werden. Man beachte bei der ersten Transformation weiterhin, dass die Matrix, die zur neuen Quadrikengleichung gehört ( ) nicht mehr ähnlich ist zur Ausgangsmatrix 6 ( ). Die Ausgangsmatrix hat als charakteristisches Polynom den Term λ² - λ 6 mit den irrationalen Nullstellen Vielmehr gilt: ± 4. = 6 6. Aus x T Ax wird nämlich x T B T A B x mit den neuen Koordinaten x, für die gilt: x = B x. B erhält man, in dem man die Gleichungen x = x x und x = x nach x und x auflöst ( x = x + x und x = x ). Da keine orthogonale Matrix ist, ist ihre Transponierte nicht ihre Inverse. Daher entsteht bei dieser Koordinatentransformation keine ähnliche Matrix. Wichtig ist aber immer noch, dass die Transformationsmatrix invertierbar ist. Zum Schluss noch ein Beispiel einer ungewöhnlichen Lösung, die zunächst recht spannend aussieht. Es soll der Typ der Quadrik x ² + x ² + x ² + x x + x x + x x + x + x + x = bestimmt werden. Die Matrix A hat hier eine besonders einfache Gestalt. Sie hat als Einträge 9 mal eine. Damit besitzt Sie nur Rang, hat als doppelten EW die Null und als einfachen EW die zur EV. Passt man den linearen Teil an, so erhält man x ² + x =. Nach der Verschiebung ergibt sich - 4 x ² + =. Es handelt sich also um parallele Ebenen. Sie stehen im ursprünglichen Koordinatensystem senkrecht auf der von Ursprungsgerade..aufgespannten Ein Student wollte diese Aufgabe nun von vornherein mit quadratischem Ergänzen lösen. Er formte die Gleichung so um :

20 -( x ² - x x + x ² ) + x ² + x x + ½ x ² + x ² + x x + ½ x ² + x + x + x = Im nächsten Schritt: - ( x x )² + (x + ½ x )² + (x + ½ x )² + (x x ) + (x + ½ x ) + (x + ½ x ) = Neue Koordinaten führen hier zu der Gleichung x ² + x ² + x ² + x + x + x =, welche durch Verschiebung als Gleichung eines einschaligen Hyperboloids identifiziert werden kann. Liegt nun ein Hyperboloid vor oder Ebenen? Hat der Student einen Fehler gemacht? Genaues Nachrechnen zeigt: Verrechnet hat er sich nicht. Aber... Betrachtet man die neuen Koordinaten: x = x x, x = x + ½ x und x = x + ½ x, so entdeckt man, dass sich dieses Gleichungssystem nicht nach x, x und x auslösen lässt, denn B wäre die Inverse zu,, die nicht existiert., Es liegt also nur scheinbar eine Koordinatentransformation vor. Zur Wiederholung: Welche der folgenden Aussagen stimmen? Wenn (X λ) r ein Faktor des Minimalpolynoms ist, dann hat er zugehörige verallgemeinerte Eigenraum die Dimension r. Wenn (X λ) r ein Faktor des Minimalpolynoms ist, dann hat er zugehörige verallgemeinerte Eigenraum mindestens die Dimension r. Die darstellende Matrix ist abhängig von der Wahl der Basis. Eigenvektoren sind Spaltenvektoren. Ist die darstellende Matrix eine Diagonalmatrix, so bezieht sie sich auf Eigenvektoren. Die Jordansche Normalform bezieht sich auf verallgemeinerte Eigenvektoren. Das charakteristische Polynom und das Minimalpolynom haben die gleichen Nullstellen. Das charakteristische Polynom hängt von der Wahl der Basisvektoren ab. Orthogonale Abbildungen beziehen sich auf Orthonormalbasen. Selbstadjungierte Abbildungen erkennt man an symmetrischen Matrizen. Quadratische Funktionen können durch symmetrische Matrizen dargestellt werden. Bei Koordinatentransformationen ergibt sich für den quadratischen Teil eine ähnliche Matrix.

21 Bei orthogonalen Koordinatentransformationen ergibt sich für den quadratischen Teil eine ähnliche Matrix.

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

6.3 Hauptachsentransformation

6.3 Hauptachsentransformation Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)

Mehr

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - en Kommentare an HannesKlarner@FU-Berlinde FU Berlin SS 1 Dia- und Trigonalisierbarkeit Aufgabe (1) Gegeben seien A = i i C 3 3 und B = 1

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Ein Produkt ist Null, wenn einer der Faktoren gleich Null ist. Die beiden Eigenwerte sind demnach. λ 1 = 0, λ 2 = 2i. 1 i

Ein Produkt ist Null, wenn einer der Faktoren gleich Null ist. Die beiden Eigenwerte sind demnach. λ 1 = 0, λ 2 = 2i. 1 i TU Dresden Fakultät Mathematik Institut für Numerische Mathematik Lösung zur Aufgabe (b des Übungsblattes Ermitteln Sie on der folgenden Matrix alle (komplexen Eigenwerte und zu jedem Eigenwert einen zugehörigen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Ergänzung Eigenwerte und Eigenvektoren Motivation Definitionen Beispiele im IR 2 Beispiele im IR 3 Eigenwerte und Eigenvektoren Motivation Lineare Abbildungen, Ausgangsvektor und Bildvektor Lineare Abbildungen

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit

Mehr

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4.

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4. Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4. Aufgabe 2.1 (8 Punkte) Es sei K ein Körper, n N, V ein 2n-dimensionaler K -Vektorraum und U

Mehr

Lineare Abhängigkeit und Unabhängigkeit. 1-E Ma 1 Lubov Vassilevskaya

Lineare Abhängigkeit und Unabhängigkeit. 1-E Ma 1 Lubov Vassilevskaya Lineare Abhängigkeit und Unabhängigkeit -E Ma Lubov Vassilevskaya Eindimensionaler Raum Abb. -: Zwei nicht gleiche Vektoren auf der gleichen Gerade Jeden Vektor, der auf einer Geraden liegt, kann man durch

Mehr

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1 Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die

Mehr

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011 Hier eine kurze Erklärung zu der. Als Grundlage diente teilweise eine Beschreibung von Markus Göhl vom Sommersemester 00. Quadriken Definition. Eine Quadrik ist die Nullstellenmenge eines quadratischen

Mehr

8. Übungsblatt zur Mathematik I für Maschinenbau

8. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 8. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS / 6..-.. Aufgabe G (Matrixinversion mit Gauß-Algorithmus

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform LinAlg II Version 1 29. Mai 2006 c Rudolf Scharlau 219 3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform Das Problem der Normalformen für Endomorphismen handelt kurz gesprochen

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Vektoren. Kapitel 3. 3.1 Skalare, Vektoren, Tensoren. 3.2 Vektoren

Vektoren. Kapitel 3. 3.1 Skalare, Vektoren, Tensoren. 3.2 Vektoren Kapitel 3 Vektoren 31 Skalare, Vektoren, Tensoren Viele physikalische Größen lassen sich bei bekannter Maßeinheit durch Angabe ihres Betrages als reelle Zahl vollständig angeben Solche Größen nennt man

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen Hannover, den 0. April 2006. Übungsblatt: Lineare Algebra II Abgabe: 24./25.4.2006 in den Übungsgruppen ( ) 2 5 a) Zeigen Sie, dass A = und B = 2 ( 7 6 invertierbare Matrix T an mit T AT = B. b) Zeigen

Mehr

Das Wort Vektor kommt aus dem lateinischen und heißt so viel wie "Träger" oder "Fahrer".

Das Wort Vektor kommt aus dem lateinischen und heißt so viel wie Träger oder Fahrer. Was ist ein Vektor? Das Wort Vektor kommt aus dem lateinischen und heißt so viel wie "Träger" oder "Fahrer". Vektoren sind Listen von Zahlen. Man kann einen Vektor darstellen, indem man seine Komponenten

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

5.4 Hauptachsentransformation

5.4 Hauptachsentransformation . Hauptachsentransformation Sie dient u.a. einer möglichst einfachen Darstellung von Kegelschnitten und entsprechenden Gebilden höherer Dimension mittels einer geeigneten Drehung des Koordinatensystems.

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Prüfung Lineare Algebra 2

Prüfung Lineare Algebra 2 1. Überprüfen Sie die folgenden Aussagen: (1) Zwei reelle symmetrische Matrizen sind genau dann ähnlich, wenn sie die gleiche Signatur haben. (2) Jede symmetrische Matrix ist kongruent zu einer Diagonalmatrix,

Mehr

Lineare Algebra II (SS 13)

Lineare Algebra II (SS 13) Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Wiederholungsserie II

Wiederholungsserie II Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095

Mehr

Einige Lösungsvorschläge für die Klausur zur Vorlesung

Einige Lösungsvorschläge für die Klausur zur Vorlesung Prof Klaus Mohnke Institut für Mathematik Einige Lösungsvorschläge für die Klausur zur Vorlesung Lineare Algebra und analtische Geometrie II* - SS 7 Aufgabe Im R mit dem Standardskalarprodukt ist die folgende

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Anwendung v. symmetrischen Matrizen: Hauptachsentransformation

Anwendung v. symmetrischen Matrizen: Hauptachsentransformation Zusammenfassung: Eigenwerte, Eigenvektoren, Diagonalisieren Eigenwertgleichung: Bedingung an EW: Eigenwert Eigenvektor charakteristisches Polynom Für ist ein Polynom v. Grad, Nullstellen. Wenn EW bekannt

Mehr

8 Lineare Abbildungen

8 Lineare Abbildungen 80 8 Lineare Abbildungen In diesem Kapitel untersuchen wir lineare Abbildungen von R n nach R m wie zum Beispiel Spiegelungen, Drehungen, Streckungen und Orthogonalprojektionen in R 2 und R 3 Man nennt

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

6 Metrische Klassifikation der Quadriken

6 Metrische Klassifikation der Quadriken 6 Metrische Klassifikation der Quadriken A Wiederholung von Kap V, 5 Sei A = (a ij ) eine symmetrische n n Matrix. n x 1 q(x) := x t Ax = a ij x i x j, x =. i,j=1 ist dann ein quadratisches Polynom in

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- 1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

x y Kenner der Kegelschnitte werden hier eine Ellipse erkennen, deren Hauptachsen aber nicht mit der Richtung der Koordinatenachsen zusammenfallen.

x y Kenner der Kegelschnitte werden hier eine Ellipse erkennen, deren Hauptachsen aber nicht mit der Richtung der Koordinatenachsen zusammenfallen. Matrizen / ensoren - eil ensoren - zweidimensionales Beispiel um das Eigenwertproblem zu verdeutlichen hier als Beispiel ein zweidimensionales Problem die entsprechenden Matrizen und Determinanten haben

Mehr

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012 Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.0 Aufgabe : Entscheiden Sie in dieser Aufgabe, ob die Aussagen wahr oder falsch sind. Begründungen sind nicht erforderlich. Ein korrekt gesetztes

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Dienstag $Id: jordantex,v 8 9// 4:48:9 hk Exp $ $Id: quadrattex,v 9// 4:49: hk Exp $ Eigenwerte und die Jordansche Normalform Matrixgleichungen und Matrixfunktionen Eine

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und

Mehr

f : x y = mx + t Der Graph einer linearen Funktion ist eine Gerade, welche die y-achse im Punkt S schneidet. = m 2 x 2 m x 1

f : x y = mx + t Der Graph einer linearen Funktion ist eine Gerade, welche die y-achse im Punkt S schneidet. = m 2 x 2 m x 1 III. Funktionen und Gleichungen ================================================================== 3.1. Lineare Funktionen Eine Funktion mit der Zuordnungvorschrift f : x y = mx + t und m, t R heißt lineare

Mehr

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v Kap 1: VEKTORRÄUME Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung ϕ : I X, i ϕ(i) = x i, wobei die Menge I in diesem Zusammenhang auch Indexmenge genannt wird. Man schreibt vereinfacht

Mehr

Basisprüfung. 18. August 2015

Basisprüfung. 18. August 2015 Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v

Mehr

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

Lineare Algebra II Lösungen zu ausgewählten Aufgaben Lineare Algebra II Lösungen zu ausgewählten Aufgaben Blatt 2, Aufgabe 3 a) Wir zeigen, daß das Ideal (2, X) kein Hauptideal in Z[X] ist. (Dieses Ideal besteht aus allen Elementen in Z[X], die von der Form

Mehr

Vektorräume und Lineare Abbildungen

Vektorräume und Lineare Abbildungen Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Lineare Algebra. 1 Lineare Abbildungen

Lineare Algebra. 1 Lineare Abbildungen Lineare Algebra Die lineare Algebra ist ein Teilgebiet der Mathematik, welches u. A. zur Beschreibung geometrischer Abbildungen und diverser Prozesse und zum Lösen linearer Gleichungssysteme mit Hilfe

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

y x x y ( 2x 3y + z x + z

y x x y ( 2x 3y + z x + z Matrizen Aufgabe Sei f R R 3 definiert durch ( ) x 3y x f = x + y y x Berechnen Sie die Matrix Darstellung von f Aufgabe Eine lineare Funktion f hat die Matrix Darstellung A = 0 4 0 0 0 0 0 Berechnen Sie

Mehr

12.3 Kommutierende Abbildungen

12.3 Kommutierende Abbildungen 12.3 Kommutierende Abbildungen Definition 12.3.1 Sei V ein endlichdimensionaler Vektorraum, und sei F eine Familie linearer Abbildungen V V mit UT = TU für alle U, T in F. Dann nennt man F eine Familie

Mehr

Hilfsblätter Lineare Algebra

Hilfsblätter Lineare Algebra Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Lineare Algebra für Ingenieure

Lineare Algebra für Ingenieure TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Anwendung v. symmetrischen Matrizen: Hauptachsentransformation

Anwendung v. symmetrischen Matrizen: Hauptachsentransformation Anwendung v. symmetrischen Matrizen: Hauptachsentransformation Einleitende Bemerkungen: Gl. für Kreis: Gl. für Elllipse: (gestauchter Kreis) Gl. für Kugel: Gl. für Elllipsoid: (gestauchter Kugel) Diese

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 25/26 Lineare Algebra und analytische Geometrie I Vorlesung 28 If it works, it s out of date David Bowie Ein Zerlegungssatz Satz 28 Sei ϕ: V V ein trigonalisierbarer K-Endomorphismus

Mehr

10. Übung zur Linearen Algebra II -

10. Übung zur Linearen Algebra II - 0. Übung zur Linearen Algebra II - Lösungen Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 7 Der ( linearen ) Abbildung ϕ : R R sei bzgl. der kanonischen Basis die Matrix zugeordnet.

Mehr

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen Technische Universität Berlin Sommersemester 2008 Institut für Mathematik 18 Juli 2008 Prof Dr Stefan Felsner Andrea Hoffkamp Lösungsskizzen zur Klausur zur Linearen Algebra II Aufgabe 1 (1+1+1 Punkte)

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra II, WS 11/12 Ingo Blechschmidt 27. Februar 2012

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra II, WS 11/12 Ingo Blechschmidt 27. Februar 2012 Hier eine kurze Erklärung zu der. Als Grundlage diente größtenteils eine Beschreibung von Markus Göhl vom Sommersemester 00. Quadriken Definition. Eine Quadrik ist die Nullstellenmenge eines quadratischen

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 0/06 Lineare Algebra und analytische Geometrie I Vorlesung... und ein guter Lehrer kann auch einem schlechten Schüler was beibringen Beziehung zwischen Eigenräumen Wir

Mehr

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

(1) In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt.

(1) In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt. () In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt. a) Es seien A und B beliebige n n-matrizen mit Einträgen in einem Körper K.

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? 1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2

Mehr

Kapitel 11 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ. Eigenwert, Eigenvektor In der Regel hat bei einer linearen Abbildung das Bild eines Vektors eine andere Richtung als das Original r. Bei der Untersuchung der geometrischen Eigenschaften von linearen Abbildungen

Mehr