Was fehlt derzeit im Internet? Sicherlich eine verständliche Einführung in Tensoren.

Größe: px
Ab Seite anzeigen:

Download "Was fehlt derzeit im Internet? Sicherlich eine verständliche Einführung in Tensoren."

Transkript

1

2 Was fehlt derzeit im Internet? Sicherlich eine verständliche Einführung in Tensoren. Mehr von PLARTHIN gibt's im Internet auf Literatur: - deutsche Wikipedia - Spacetime and Geometry, Sean Carroll

3 Für Pedanten: Alles hier gilt nur für endlichdimensionale Vektorräume. 0 Einstein'sche Summenkonvention & Schreibweisen. Einstein'sche Summenkonvention Natürlich kann man unmöglich erwarten, dass man Summenzeichen ( ) dort verwendet, wo sie hingehören - ist ja schließlich ungeheurer Aufwand. Daher ist es üblich, die Einstein'sche Summenkonvention zu benutzen. Über "doppelt auftretende Indizes wird summiert", kurz gesagt. I.d.R. meint man damit aber nur doppelt auftretende Indizes, die einmal "unten" und einmal "oben" auftreten. Dies ist deshalb bedeutsam, da es bei Tensoren ein Unterschied ist, ob ein Index oben oder unten steht, d.h.. Ein einfaches Beispiel hierfür ist die Matrixmultiplikation. Das Produkt einer - Matrix A mit einer -Matrix B ergibt eine -Matrix C, bei dem das Element etwa die Summe der Produkte der i-ten Zeile von Matrix A mit der j-ten Spalte von Matrix B beinhaltet: = Das Element in der i-ten Zeile, j-ten Spalte erhält man durch Summation der einzelnen Produkte Mathematisch ausgedrückt gilt also: Wie schon angedeutet macht es bei Tensoren einen Unterschied, ob Indizes oben oder unten stehen. Bei Matrizen mit reellen (oder komplexen) Werten wie hier ist dies nicht der Fall - das liegt daran, dass der zugrundeliegende Körper (Reelle/Komplexe Zahlen) recht freundlich beschaffen sind. Daher können wir also statt auch schreiben. Hier ist es wichtig, dass es sich nicht um Exponenten handelt! Da muss man einfach drauf achten: Aber nur selten werden Tensoren oder Matrizen quadriert o.ä.. Ansonsten setzen wir Klammern. Schreiben wir nun also statt nun - was wir ja dürfen aufgrund der Beschaffenheit der Matrizen, so erhalten wir den folgenden Ausdruck:

4 Wir sehen, dass das k hier doppelt auftritt - einmal unten und einmal oben. Das ist ab sofort das Signal für eine Summe. Häufig werden in einer Gleichung mehrerer solcher Indizes vorkommen. Dem entsprechen dann immer mehrere Summen. Bei (reell- oder komplexwertigen) Matrizen ist es häufig am günstigsten, sich darüber nicht allzuviele Gedanken machen. Teilweise werden wir schreiben. Schreibweisen, Ko- und Kontravarianz. Komponenten von Koordinaten werden "in den Exponenten" gestellt, d.h. der Vektor hat die Komponenten. Wieder drauf achten: Es ist kein Quadrat, sondern eben die Komponente. Wichtig: Vektoren kann man durch ihre Komponenten charakterisieren. Was bedeutet das? Eigentlich stellen wir Vektoren als Linearkombination der Basisvektoren dar: Wie oben gibt man aber häufig nur die Komponenten an. Dabei ist also implizit die Basis schon mitvereinbart. Verändert sich die Basis, so verändern sich diese Komponenten - aber genau umgekehrt. Ein Beispiel: Verschieben wir das Koordinatensystem um, so werden aus den alten Komponenten die neuen Koordinaten. Gleiches gilt bspw. bei Rotation - wer das Koordinatensystem um einen Winkel dreht, stellt fest, dass man die neuen Komponenten durch Drehung der alten um erhält. Skalierung o.ä. haben allesamt ein solches Verhalten. Da man genau die umgekehrte Transformation durchführen muss, nennt man die Komponenten der Vektoren, und verkürzt Vektoren selbst kontravariant. Im Dualen Vektorraum - also der Raum der lin. Abbildungen die zum Vektorraum gehört ist dies anders. Da die Abbildung linear ist, ist sie vollständig durch ihr Verhalten auf die Basisvektoren bestimmt: Kennen wir also die Werte, so wissen wir alles, was es über die Abbildung zu wissen gibt. Die "Komponenten" der Abb. sind dann also die. Lineare Transformationen können, wie wir wissen, durch Matrizen dargestellt werden. Die einzelnen Komponenten der Abb. transformieren ebenfalls: Sie transformieren also genauso wie die Basisvektoren selbst (Summe, Matrixmultiplikation). Daher sind die Elemente des Dualraums kovariant. Man beachte: Wir hätten wg. der Einstein'schen Summenkonvention oben auch die Summe weglassen können (denn das k "unten" und "oben" impliziert ja das Summieren über k).

5 1 Was zur Hölle sind Tensoren!? Tensoren sind eine Verallgemeinerung der Konzepte Skalar, Vektor und Matrix. All diese kann man als Tensor auffassen, aber Tensoren können noch mehr als nur das. Tensoren sind lineare Abbildungen - sie nehmen Vektoren, aber auch Elemente des zugehörigen Dualraums als Argument, und bilden das ganze ab in den "zugrundeliegenden Körper". Das ist in der Physik i.d.r. die reellen Zahlen. Definieren wir dies mathematisch genauer. Tensoren haben unterschiedlich viele Argumente, die sie auffassen. Man spricht von -Tensoren, wenn sie r Elemente des Dualraums und s Elemente des eigentlichen Vektorraums V "schlucken". Also: Dabei ist K der Körper, über den der Vektorraum V definiert ist - in der Physik also i.d.r. die reellen Zahlen. wird mit ein neuer Vektorraum mit Elementen der Form, wobei. Z.b. ist. Die zweite Bedingung ist, dass Tensoren multilinear sind, d.h. sie sind linear in jedem Argument, egal ob da ein Vektor oder ein Element des Dualraums drinsteht. Damit sehen wir sofort: Lineare Abbildungen - also die Elemente des Dualraums - sind einfache (0,1)- Tensoren: Sie nehmen einen Vektor und ordnem ihm eine Zahl zu. Die Menge all solcher Tensoren ist also der Dualraum selbst. Umgekehrt sind (1,0)-Tensoren diejenigen, die die Abbildungen des Dualraums in den Körper abbilden. Wie eben bilden diese Tensoren also den Dualraum der Elemente, die wir als Argument "hineinstecken" - daher ist die Menge all dieser Tensoren. Da endlichdimensionale Vektorräume reflexiv sind, ist. (Und was ist mit (0,0)-Tensoren? Das sind einfach nur Zahlen. Die Menge all dieser Tensoren ist der Körper selbst. Langweilig? Jap.) Sei nun Elemente von V und Elemente von. Das Tensorprodukt zweier Tensoren, ist der -Tensor Also einfach die Hinterereinanderausführung der beiden Tensoren. Beachte: Das Tensorprodukt ist nicht kommutativ. Da Tensoren linear sind sind sie, ähnlich wie oben beschrieben, durch Anwendung auf die Basisvektoren beschrieben. Seien daher nun im Folgenden die Basisvektoren des Dualraums, und die des eigentlichen Vektorraums. Wir benutzen hier Klammern, um anzudeuten, dass es sich um Nummerierung von Vektoren handelt - d.h. ist der erste Basisvektor und nicht die erste Komponente. Dann sind die Komponenten des Tensors gegeben durch Anwendung der zugehörigen Basisvektoren

6 Man beachte: usw. sind Zahlen (vgl. folgendes Beispiel) Machen wir ein Beispiel: Sei der Vektorraum. Dann ist das normale Skalarprodukt ein (0,2)-Tensor (denn er schluckt ja zwei Vektoren). Die Komponenten des Tensors sind dann: Denn das Skalarprodukt zweier gleicher Basisvektoren ist (da diese orthonormal ist) 1, sonst 0. Man beachte: Schreiben wir nur einzelne Indizes und keine Argumente, so ist eine Komponente gemeint, kommen auch Argumente vor, so schreiben wir der Vollständigkeit (häufig lässt man es weg) noch für einen -Tensor diese Werte oben und unten dran.

7 2 Weiterführendes Mathematisches Der Raum aller -Tensoren ist ein Vektorraum, d.h. Linearkombinationen (also z.b. Summen) von Tensoren sind wieder Tensoren. Dieser Vektorraum besitzt natürlich auch eine Basis. Wir wollen diese im Folgenden darstellen. Zunächst machen wir uns klar, dass die Basisvektoren von V, die wir usw. nennen, ebenfalls Tensoren sind, nämlich (1,0)-Tensoren. Sie nehmen also ein Element des Dualraums und bilden dies auf ein Element des zugrundeliegenden Körpers ab. Die Elemente des Dualraums sind aber lin. Abbildungen - also geschieht dies einfach so, dass diese lin. Abbildung auf diesen Basisvektor wirkt. Daher haben wir nun die einfachsten (1,0)-Tensoren (Basisvektoren von V) und die einfachsten (0,1)- Tensoren (Elemente des Dualraums) beisammen. Wir können aus diesen daher einfach -Tensoren basteln, etwa so: Natürlich geht dies nicht nur mit, sondern auch mit jedem anderen Basisvektor. Das heißt für jede der ersten r Positionen gibt es im n-dimensionalen genau n Möglichkeiten, und ebenso für die letzten s Positionen. Daher hat der -Raum also genau Basiselemente - dies entspricht auch genau der Zahl der Komponenten eines Tensors. Für die vierdimensionale Raumzeit sind es also Möglichkeiten. So wie man einen Vektor darstellt als Linearkombination der Basisvektoren, d.h.: Gilt dies auch für einen Tensor. Hier sieht man dann tatsächlich mal einen Vorteil der Einstein'schen Sumenkonvention. Schreiben wir das nämlich allgemein für einen Tensor: So sehen wir: Das läuft tatsächlich ganz analog - aber aufgrund der höheren "Dimensionalität" der Tensoren wird das ganze schnell eklig. Tensoren kann man verjüngen. Das heißt, aus einem -Tensor einen -Tensor machen. Dies geschieht, indem über einen oberen und einen unteren Index summiert wird. Also beispielsweise: Anders kann man nicht verjüngen - also etwa nicht nur über einen oberen oder nur einen unteren Index, sonst ist das Ergebnis kein wohldefinierter Tensor. Zusätzlich kann man mit einem Besonderen -Tensor - der verwendeten Metrik - mit

8 in der ungekrümmten Raumzeit (Spez. Relativitätstheorie) Indizes erhöhen bzw. herunterholen, dafür brauchen wir aber noch den zugehörigen inversen Tensor, der erfüllt. Dabei ist das Kronecker-Delta. Dies kann im Rahmen von Tensoren auf verschiedene Art aufgefasst werden ( (1,1)-Tensor, der der Identität entspricht, oder als (0,2)-Tensor,...). Wichtig ist: Falls, so ist es 1, sonst null. In der Standardbasis hat diese inverse Metrik die gleichen Komponenten wie die oben angegebene "normale" Metrik. Damit bewaffnet sieht man nun, dass wir aus "alten" Komponenten "neue" machen, wobei sich der Index verschiebt: Machen wir ein einfaches Beispiel, und nehmen uns einen einfachen (0,1)-Tensor (also eine normale Linearform) auf. Dieser Tensor hat die Komponenten Dann besagt der obige Satz, dass wir die neuen Komponenten wie folgt erhalten: Also ist bspw.: und analog folgen Wir sehen: In der ersten Komponente dreht sich das Vorzeichen um. Das ist eine Eigenschaft der in der Relativitätstheorie verwendeten Metrik. Ebenso kann man auf diese Art und weise einen Vektor in einen Dualvektor bringen und umgekehrt.

9 Somit sehen wir, dass dem Vektor (genauer: ) zum Dualvektor wird. Alles klar? Ein Tensor heißt symmetrisch bzgl. der Indizes ändert, also:, wenn er sich bei Tauschen dieser Indizes nicht Ändert sich dabei das Vorzeichen, so ist der Tensor antisymmetrisch bzgl.. (etwa bei der Determinante - das ist ein -Tensor für -Matrizen). Ist ein Tensor (anti-)symmetrisch bzgl. all ihrer Indizes, so heißt der ganze Tensor (anti-)symmetrisch. Es ist möglich, aus jedem Tensor einen (anti-)symmetrischen zu erzeugen, indem über all möglichen Permutationen dieser addiert wird - je nachdem, was man möchte mit wechselndem Vorzeichen oder ohne.

10 3 Verhalten unter Transformationen, alternative Definition Eine weitere Besonderheit von Tensoren ist ihr Verhalten unter Lorentztransformationen. Das ist in der Allgemeinen Relativitätstheorie wichtig. Lorentztransformationen sind solche, bei der für die zugehörige Transformationsmatrix gilt: Dabei bezeichnet die transformierte Matrix. ist die in rel. Mechanik verwendete Metrik - eine - Matrix der folgenden Gestalt: oder manchmal Solche lassen das in der rel. Mechanik verwendete Wegintervall invariant (Achtung: Auch hier teilweise mit anderem Vorzeichen verwendet). Vektoren transformieren wie gehabt: Was man in Komponenten schreiben kann als: Die Komponenten von Tensoren transformieren genauso (man beachte die Reihenfolge: Wann steht bei der Strich (=neue Komponente) oben, wann unten? - Kann man sich leicht merken, ist nämlich die Position, die auf der linken Gleichungsseite auch schon steht. Und auch nur so funktioniert die Konvention): Was nicht überraschen sollte. Schauen wir beispielsweise auf die Komponentendefinition eines - Tensors auf (wir zeigen die Rechnung nur für eine Komponente, der Rest geht analog): Dann müssen wir natürlich den Basiswechsel durchführen. Schließlich brauchen wir ja nun die "neuen" Basisvektoren, und es ist:

11 Wobei natürlich der i-te Basisvektor des transformierten Raumes ist. Simples einsetzen gibt uns dann: Wobei wir im ersten "Linearitätsschritt" die Summanden auseinandergezogen haben, im zweiten den konstanten Faktor herausgezogen haben. Die letzte Zeile kann man jetzt schreiben als: Einige Bücher definieren Tensoren als Sammlung an Zahlen, die wie oben transformieren. Aber wem ist damit schon geholfen...? Häufig nutzt man in der Physik allerdings nicht einzelne Tensoren, sondern Tensorfelder. Das heißt, jedem Punkt im Raum (in der Raumzeit) wird ein Tensor zugeordnet. Das sollte für die Vektorfeldgeplagten aber auch nicht das Drama sein.

12 4 Beispiele Neben den oben schon angesprochenen Beispielen machen wir das jetzt etwas konkreter. In diesem Kapitel wird die Einstein'sche Summenkonvention immer verwendet - ohne "Konvention"- Vorwarnung! Ein Beispiel ist das in der Relativitätstheorie andere Skalarprodukt, die auf das Zeitintervall besondere Rücksicht (ein anderes Vorzeichen) legt. Man bedenke, dass wir in der vierdimensionalen Raumzeit (Zeit, X, Y, Z) unterwegs sind. Mit lautet sie (Konvention beachten!) Auch, wenn man es "Skalarprodukt" nennt: Dieses erfüllt nicht die in der Mathematik geforderten Eigenschaften an ein Skalarprodukt! Zwei Vektoren heißen orthogonal, wenn dieses Produkt null ist (also wie gehabt). Aus diesem Skalarprodukt kann man sich natürlich - wie immer - eine Norm schnitzen. Allerdings verzichten wir diesmal auf die Wurzel: Diese Norm erfüllt ebenfalls nicht die in der Mathematik geforderten Eigenschaften. Aber dafür lassen sich andere interessante Eigenschaften ablesen. Punkte in der vierdimensionalen Raumzeit sind Ereignisse: Sie finden nicht nur an einem bestimmten Ort, sondern auch zu einer bestimmten Zeit statt. Da sich Information in der Relativitätstheorie nur mit max. c ausbreitet, kann es passieren, dass ein Ereignis an einem Punkt in der Raumzeit geschieht, dass ein Beobachter an einem anderen Punkt in der Raumzeit nicht beobachten kann - einfach, da selbst Licht, ausgesandt vom Ereignis nicht rechtzeitig den Beobachter erreicht. Solche Ereignisse haben eine positive Norm (der Beobachter sitze im Nullpunkt). Solche, bei denen es gerade so möglich ist (d.h. Geschwindigkeit = c ist ein Muss) haben die Norm null, und "normale" Ereignisse, die man also auch mit geringerer Reisegeschwindigkeit rechtzeitig erreichen würde haben negative Norm. Zu guter Letzt betrachten wir noch den Elektromagnetischen Feldstärketensor. Dieser ist ein antisymmetrischer -Tensor, und besitzt die Matrixdarstellung:

13 Dieser ist besonders dadurch praktisch, weil sich mit ihm die Maxwellgleichungen: unter Zuhilfenahme des "Vierer-Vektors" geschickt schreiben lassen: Was zwar mehrere Gleichungen für verschiedene Kombinationen von ökonomischere Schreibweise darstellt. sind, jedoch eine deutlich Kleine Anmerkung: Evtl. stimmen ein paar konstante Faktoren nicht. Sorry.

. Name motiviert durch (hängt von Einbettung in höher dimensionalen Raum ab) folgendes Bild:

. Name motiviert durch (hängt von Einbettung in höher dimensionalen Raum ab) folgendes Bild: 1.4 Vektoren Jeder Vektor (Vierer-Vektor) lebt an einem bestimmten Punkt der Raumzeit. Dieser lässt sich bei Krümmung nicht einfach verschieben. Betrachte deshalb Menge alle Vektoren an einem Punkt p =

Mehr

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele:

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele: L2. Vektorräume Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer Beispiele: 2) Vektoren: vollständig bestimmt durch Angabe einer und einer Beispiele: Übliche

Mehr

I.2.3 Minkowski-Raum. ~r x 3 benutzt.

I.2.3 Minkowski-Raum. ~r x 3 benutzt. I.2 Lorentz-Transformationen 9 I.2.3 Minkowski-Raum Wegen der Absolutheit von Zeit und Raum in der klassischen Mechanik faktorisiert sich die zugehörige nicht-relativistische Raumzeit in das Produkt einer

Mehr

Tensoren auf einem Vektorraum

Tensoren auf einem Vektorraum ANHANG A Tensoren auf einem Vektorraum In diesem Anhang werden einige Definitionen und Ergebnisse betreffend Tensoren ohne Anspruch auf mathematische Strenge zusammengestellt. Das Ziel ist, den modernen

Mehr

Das Levi-Civita-Symbol alias ε-tensor

Das Levi-Civita-Symbol alias ε-tensor 1 Das Levi-Civita-Symbol alias ε-tensor Wir gehen aus vom Kreuzprodukt und schreiben dieses auf eine zunächst komplex anmutende Art: a a 2 b 3 a 3 b 2 0 a 3 a 2 b 1 b = a 3 b 1 a 1 b 3 = a 3 0 a 1 b 2

Mehr

Mehr von PLARTHIN gibt's im Internet auf http://plarthin.wordpress.com Literatur: - [1] deutsche, englische Wikipedia (Literaturverweise hierauf gekennzeichnet mit [1, de]; [1, en]) - [2] Spacetime and

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Kapitel 15 Lineare Gleichungssysteme

Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem

Mehr

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele:

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele: L2. Vektorräume Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer Beispiele: Masse, Volumen, Energie, Arbeit, Druck, Temperatur 2) Vektoren: vollständig

Mehr

L5 Matrizen I. Matrix: (Plural: Matrizen)

L5 Matrizen I. Matrix: (Plural: Matrizen) L5 Matrizen I Matrix: (Plural: Matrizen) Vielfältige Anwendungen in der Physik: - Lösung von linearen Gleichungsystemen - Beschreibung von Drehungen - Beschreibung von Lorenz-Transformationen (spezielle

Mehr

Mathematisches Kaleidoskop II Materialien Teil 3. Dr. Hermann Dürkop

Mathematisches Kaleidoskop II Materialien Teil 3. Dr. Hermann Dürkop Mathematisches Kaleidoskop II Materialien Teil 3 Dr. Hermann Dürkop E-Mail: info@ermanus.de .3.3 Noch zwei Isomorphie-Beispiele Beispiel : Wir betrachten die Symmetrien eines nichtquadratischen Rechtecks.

Mehr

Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung

Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung Prof Dr-Ing Ch Tsakmakis Dipl-Ing J Frischmann FB 13, FG Kontinuumsmechanik Aufgabe 1 (Klausuraufgabe) Seien drei Vektoren u, v, w

Mehr

Ausgangsfrage: gegeben Vektorraum, wieviele Komponenten hat. allgemein: ein Vektorraum mit, heisst 'Unterraum' von. ist ein Unterraum von V.

Ausgangsfrage: gegeben Vektorraum, wieviele Komponenten hat. allgemein: ein Vektorraum mit, heisst 'Unterraum' von. ist ein Unterraum von V. L2.3 Basis und Dimension Ausgangsfrage: gegeben Vektorraum, wieviele Komponenten hat Formaler: was ist die 'Dimension' von Sei Definition: 'Span' 'lineare Hülle' = alle möglichen Linearkombination der

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

L5 Matrizen I: Allgemeine Theorie

L5 Matrizen I: Allgemeine Theorie L5 Matrizen I: Allgemeine Theorie Matrix: (Plural: Matrizen) Vielfältige Anwendungen in der Physik: - Lösung von linearen Gleichungsystemen - Beschreibung von Drehungen - Beschreibung von Lorenz-Transformationen

Mehr

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Kapitel 14 Lineare Gleichungssysteme

Kapitel 14 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 83 / 246 Kapitel 4 Lineare Gleichungssysteme Definition 4. (Lineares Gleichungssystem LGS)

Mehr

Definition: Euklidischer Raum mit Skalarprodukt. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:

Definition: Euklidischer Raum mit Skalarprodukt. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander: Definition: Euklidischer Raum mit Skalarprodukt Einsteinsche Summenkonvention (ES): über doppelt vorkommende Indizes wird summiert. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die

Mehr

Satz 2.8 V sei ein endlichdimensionaler euklidischer Vektorraum. Für jeden Unterraum

Satz 2.8 V sei ein endlichdimensionaler euklidischer Vektorraum. Für jeden Unterraum Orthogonalität 123 Dienstag, 27. April 04 Satz 2.8 V sei ein endlichdimensionaler euklidischer Vektorraum. Für jeden Unterraum U von V gilt dann (a) U + U = V, U U = {0}, U, U = 0. (b) (U ) = U. Wir sagen

Mehr

Analysis für Physiker Zusätze

Analysis für Physiker Zusätze Analysis für Physiker Zusätze nach den Vorlesungen von Prof. Dr. Werner Timmermann (Sommersemester 2007, Wintersemester 2007/08) Herausgegeben von Jeffrey Kelling Felix Lemke Stefan Majewsky Stand: 23.

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Multilineare Algebra

Multilineare Algebra Multilineare Algebra Handout zur Vorlesung Differentialgeometrie Dr. Bernd Ammann, Prof. Chr. Bär Literatur Frank Warner, Foundations of differentiable manifolds and Lie groups, Kapitel 2 1 Tensoren Motivation.

Mehr

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung Kapitel 3 Lineare Abbildungen Lineare Abbildungen sind eine natürliche Klasse von Abbildungen zwischen zwei Vektorräumen, denn sie vertragen sich per definitionem mit der Struktur linearer Räume Viele

Mehr

beschrieben wird. B' sei ein IS das derjenigen Weltlinie folgt, die P und Q in gleichförmiger Bewegung verbindet. Aus Sicht von A folgt B' Bahn mit

beschrieben wird. B' sei ein IS das derjenigen Weltlinie folgt, die P und Q in gleichförmiger Bewegung verbindet. Aus Sicht von A folgt B' Bahn mit Minkowski-Wegelement und Eigenzeit Invariantes Wegelement entlang einer Bahnkurve einesteilchens im IS A: immer "Instantan mitlaufendes" Inertialsystem B' sei so gewählt, dass es zum Zeitpunkt t dieselbe

Mehr

1.3 Transformation der Geschwindigkeit

1.3 Transformation der Geschwindigkeit [Griffiths 1.1.3, 1..1] 1.3 Transformation der Geschwindigkeit Seien S und S Inertialsysteme. S bewege sich gegenüber S mit der Geschwindigkeit V = V e 1. Es sei wieder β = V/c, γ = 1/ 1 β. Für ein Ereignis

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Universität Trier Fachbereich IV Wintersemester 2004/2005 Wavelets made easy Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Thomas Queckbörner 16.11.2004 Übersicht des Kapitels: 1. Einführung 2. Zweidimensionale

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

beschrieben wird. B' sei ein IS das derjenigen Weltlinie folgt, die P und Q in gleichförmiger Bewegung verbindet. Aus Sicht von A folgt B' Bahn mit

beschrieben wird. B' sei ein IS das derjenigen Weltlinie folgt, die P und Q in gleichförmiger Bewegung verbindet. Aus Sicht von A folgt B' Bahn mit Minkowski-Wegelement und Eigenzeit Invariantes Wegelement entlang einer Bahnkurve einesteilchens im IS A: immer "Instantan mitlaufendes" Inertialsystem B' sei so gewählt, dass es zum Zeitpunkt t dieselbe

Mehr

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

Transformation Allgemeines Die Lage eines Punktes kann durch einen Ortsvektor (ausgehend vom Ursprung des Koordinatensystems

Transformation Allgemeines Die Lage eines Punktes kann durch einen Ortsvektor (ausgehend vom Ursprung des Koordinatensystems Transformation - 1 1. Allgemeines 2. Zwei durch eine Translation verknüpfte gleichartige Basissysteme 3. Zwei durch eine Translation verknüpfte verschiedenartige Basissysteme (noch gleiche Orientierung)

Mehr

HM II Tutorium 1. Lucas Kunz. 24. April 2018

HM II Tutorium 1. Lucas Kunz. 24. April 2018 HM II Tutorium 1 Lucas Kunz 24. April 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Körper...................................... 2 1.2 Gruppen..................................... 2 1.3 Vektorraum...................................

Mehr

Kapitel 2: Mathematische Grundlagen

Kapitel 2: Mathematische Grundlagen [ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen

Mehr

Lineare Algebra. 1 Lineare Abbildungen

Lineare Algebra. 1 Lineare Abbildungen Lineare Algebra Die lineare Algebra ist ein Teilgebiet der Mathematik, welches u. A. zur Beschreibung geometrischer Abbildungen und diverser Prozesse und zum Lösen linearer Gleichungssysteme mit Hilfe

Mehr

Vektoren - Die Basis

Vektoren - Die Basis Vektoren - Die Basis Motivation (Als Vereinfachung - der Schreibarbeit - wählen wir meistens Vektoren in R 2.) Eigentlich ist ja Alles klar! Für einen Vektor a gilt a = ( a x a y )! Am Ende werden wir

Mehr

zu beweisen, kann man sich daher auf einen speziellen, möglichst einfach strukturierten Raum

zu beweisen, kann man sich daher auf einen speziellen, möglichst einfach strukturierten Raum 9 Tensoren Im Teil I haben wir die wesentlichen Eigenschaften des physikalischen Raumes mit den Mitteln der linearen Algebra beschrieben. Die Orte im Raum haben wir mit den Punkten eines dreidimensionalen,

Mehr

L5.6 Symmetrische, hermitesche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen)

L5.6 Symmetrische, hermitesche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen) L5.6 Symmetrische, heresche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen) In diesem Kapitel kommen Matrizen in Zusammenhang Skalarprodukt vor.

Mehr

Tensoren und Relativität

Tensoren und Relativität Tensoren und Relativität Johannes Fahrner Proseminar Lineare Algebra WS2016/2017 Universität Konstanz Zusammenfassung In dieser Ausarbeitung wollen wir uns mit Tensoren beschäftigen und uns ansehen, inwiefern

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Kapitel 7. Lineare Abbildungen. 7.1 Motivation

Kapitel 7. Lineare Abbildungen. 7.1 Motivation Kapitel 7 Lineare Abbildungen 71 Motivation Verschieben, Drehen und Scheren sind parallelentreu, dh sie lassen sich auch als Abbildung zwischen Vektorräumen fomulieren Die Verschiebung, beispielsweise,

Mehr

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

mit Skalarprodukt aus i-tem Zeilenvektor und j-tem Spaltenvektor Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"

Mehr

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren L5.4 Inverse einer Matrix Ausgangsfrage: Wie löst man ein lineares Gleichungsystem (LSG)? Betrachte n lineare Gleichungen für n Unbekannte: Ziel: durch geeignete Umformungen bringe man das LSG in folgende

Mehr

Vorkurs Mathematik B

Vorkurs Mathematik B Vorkurs Mathematik B Dr. Thorsten Camps Fakultät für Mathematik TU Dortmund 20. September 2011 Definition (R n ) Wir definieren: 1 Der R 2 sei die Menge aller Punkte in der Ebene. Jeder Punkt wird in ein

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 9 20. Mai 2010 Kapitel 9. Matrizen und Determinanten Der Begriff der Matrix Die transponierte Matrix Definition 84. Unter einer (reellen) m n-matrix

Mehr

Das innere Produkt von zwei Vektoren in V entspricht dem standard Skalarprodukt ihrer Komponenten bezüglich einer Orthonormalbasis von V.

Das innere Produkt von zwei Vektoren in V entspricht dem standard Skalarprodukt ihrer Komponenten bezüglich einer Orthonormalbasis von V. L5.6 Orthogonale und unitäre Matrizen (invertierbare Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen) Reelles inneres Produkt in -Vektorraum [siehe L3.1b]: 'reeller Vektorraum' (i)

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Nun erinnern wir an die Konvention, dass die Komponenten von v V (bzgl. B) einen Spaltenvektor. v 1 v 2 v =

Nun erinnern wir an die Konvention, dass die Komponenten von v V (bzgl. B) einen Spaltenvektor. v 1 v 2 v = eim Rechnen mit Linearformen in V zusammen mit Vektoren in V ist es von Vorteil, mit der Dualbasis zu einer gewählten asis von V zu arbeiten Hierzu einige Erläuterungen Wie ede asis von V kann die Dualbasis

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 56 Basiswechsel bei Tensorprodukten Lemma 56.1. Es sei K ein Körper und seien V 1,...,V n endlichdimensionale

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Darstellungstheorie. der. Lorentzgruppe

Darstellungstheorie. der. Lorentzgruppe Darstellungstheorie der Lorentzgruppe 1.) Lorentztransformationen: Die zwei grundlegenden Postulate der Speziellen Relativitätstheorie sind das Relativitätsprinzip, welches besagt, dass alle Naturgesetze

Mehr

Verschiedenes. Exponieren einer Matrix. Wir betrachten als Beispiel folgende Matrix: 0 1 A = 1 0

Verschiedenes. Exponieren einer Matrix. Wir betrachten als Beispiel folgende Matrix: 0 1 A = 1 0 Verschiedenes Exponieren einer Matrix Wir betrachten als Beispiel folgende Matrix: A = Man kann die Funktion f(a) einer Matrix A so berechnen, indem man auf die Reihendarstellung der Funktion f(x) zurückgeht.

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Kapitel 4. Lorentz-Tensoren

Kapitel 4. Lorentz-Tensoren Kapitel 4 Lorentz-Tensoren Nach Möglichkeit versucht man, die Gesetze der Physik so aufzustellen, dass sie in allen Inertialsystemen die gleiche Form haben, also forminvariant unter Translationen und Rotationen

Mehr

IX. Relativistische Formulierung der Elektrodynamik

IX. Relativistische Formulierung der Elektrodynamik Kurzer Rückblick auf klass. relativ. Mechanik 1 IX. Relativistische Formulierung der Elektrodynamik Die Aufteilung des elektromagnetischen Felds (auch von Strom und Ladungsdichte) in elektrisches und magnetisches

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik I+II Frühlingsemester 219 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 46 8. Lineare Algebra: 5. Eigenwerte und

Mehr

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya Lineare Transformationen und Determinanten 10-E Ma 1 Lubov Vassilevskaya Lineare Transformation cc Definition: V und W sind zwei Vektorräume. Eine Funktion T nennt man eine lineare Transformation von V

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V. Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung falls und nur falls ist bijektiv, d.h. ihre Matrix ist invertierbar, (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition) Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Technische Universität München. Mathematik für Physiker 1

Technische Universität München. Mathematik für Physiker 1 Tutorübung - Lösungen T: Basiswechsel Technische Universität München Zentrum Mathematik Mathematik für Physiker Wintersemester /2 Michael Kaplan Jan Wehrheim Christian Mendl Übungsblatt 9 Wir betrachten

Mehr

Mathematischer Vorkurs

Mathematischer Vorkurs Mathematischer Vorkurs Dr Agnes Lamacz Mathematischer Vorkurs TU Dortmund Seite 1 / 17 Vektoren Kapitel 15 Vektoren Mathematischer Vorkurs TU Dortmund Seite 13 / 17 Vektoren 151 Denition: Vektoren im Zahlenraum

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Kapitel 2 Mathematische Grundlagen In diesem Kapitel werden die mathematischen Grundlagen dargelegt, die für die Darstellung von dreidimensionalen Objekten notwendig sind. 2. 3D-Koordinatensystem Weit

Mehr

1 Definitionen: 6 Punkte gesamt

1 Definitionen: 6 Punkte gesamt ANTWORTEN zum KOLLOQIUM zur Einführung in die Lineare Algebra Hans G. Feichtinger Sommersemester 2014 Fr., 25. Juli 2014, 10:00, Fakultät f. Mathematik Punktezahl: (1) 6 (2) 9 (3) 5 (4) 10 TOTAL (von 30):

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

Analysis II. Vorlesung 37. Differenzierbare Kurven

Analysis II. Vorlesung 37. Differenzierbare Kurven Prof. Dr. H. Brenner Osnabrück SS 2015 Analysis II Vorlesung 37 Differenzierbare Kurven Eine Animation des Graphen der trigonometrischen Parametrisierung des Einheitskreises. Die grünen Punkte sind Punkte

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

35 Matrixschreibweise für lineare Abbildungen

35 Matrixschreibweise für lineare Abbildungen 35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Aus dem Beispiel lässt sich ablesen (und auch beweisen, siehe Mathematikvorlesung): Die Einheitsvektoren des Koordinatensystems K sind die Spalten der

Aus dem Beispiel lässt sich ablesen (und auch beweisen, siehe Mathematikvorlesung): Die Einheitsvektoren des Koordinatensystems K sind die Spalten der 7 Aus dem Beispiel lässt sich ablesen (und auch beweisen, siehe Mathematikvorlesung): Folgerung: Drehmatrizen haben die Determinante. Folgerung: Drehmatrizen sind orthogonale Matrizen, das heißt D = D

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Symmetrische

Mehr

Wichtige Kenntnisse der Linearen Algebra

Wichtige Kenntnisse der Linearen Algebra Wichtige Kenntnisse der Linearen Algebra In Kapitel 3 der Vorlesung werden wir sehen (und in Kapitel 6 vertiefen, dass zur Beschreibung von Quantensystemen mathematische Begriffe aus dem Gebiet der Linearen

Mehr

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops 15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

Tensoren. Oliver Jin, Florian Stöttinger, Christoph Tietz. January 24, 2012

Tensoren. Oliver Jin, Florian Stöttinger, Christoph Tietz. January 24, 2012 Tensoren Oliver Jin, Florian Stöttinger, Christoph Tietz January 24, 2012 Inhaltsverzeichnis Einleitung Einstein sche Summenkonvention Ko- und Kontravariant Stufen Transformationsverhalten Symmetrie Tensoralgebra

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Matrizen und Drehungen

Matrizen und Drehungen Matrizen und Drehungen 20. Noember 2003 Diese Ausführungen sind im wesentlichen dem Skript zur Vorlesung Einführung in die Theoretische Physik I und II on PD Dr. Horst Fichtner entnommen. Dieses entstand

Mehr

24 Minkowskis vierdimensionale Raumzeit

24 Minkowskis vierdimensionale Raumzeit 24 Minkowskis vierdimensionale Raumzeit Der deutsche Mathematiker Hermann Minkowski (1864 1909) erkannte, daß sich die von Albert Einstein 1905 entwickelte spezielle Relativitätstheorie am elegantesten

Mehr

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A. Matrizenrechnung Matrix: Eine rechteckige Anordnung reeller Zahlen a ij i = 1,..., n i ; j = 1,..., m in Zeilen und Spalten. Die a ij heiÿen Elemente von A. a 11 a 12... a ij... a 1m a 21 a 22.........

Mehr

Geometrie der Maxwell-Theorie. Max Camenzind Senioren Uni Würzburg

Geometrie der Maxwell-Theorie. Max Camenzind Senioren Uni Würzburg Geometrie der Maxwell-Theorie Max Camenzind Senioren Uni Würzburg Die Themen Die Geometrisierung der Speziellen Relativität durch Hermann Minkowski im Jahre 1908. Die kausale Struktur der RaumZeit. Die

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Lorentz-Transformationen und Invarianz

Lorentz-Transformationen und Invarianz Lorentz-Transformationen und Invarianz Wolfgang Lange. April 0 Einleitung Bei der Suche nach einer allgemeinverständlichen Erläuterung von Transformationen und Tensoren fand ich die besten Erklärungen

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( ) Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen

Mehr

L5.2 Inverse einer Matrix Betrachte im Folgenden lineare Abbildungen der Form: dann ist die Matrix, durch die A dargestellt wird, 'quadratisch', d.h.

L5.2 Inverse einer Matrix Betrachte im Folgenden lineare Abbildungen der Form: dann ist die Matrix, durch die A dargestellt wird, 'quadratisch', d.h. L5.2 Inverse einer Matrix Betrachte im Folgenden lineare Abbildungen der Form: gleich viel Zeilen wie Spalten dann ist die Matrix, durch die A dargestellt wird, 'quadratisch', d.h. 'Identitätsabbildung':

Mehr