Was fehlt derzeit im Internet? Sicherlich eine verständliche Einführung in Tensoren.

Ähnliche Dokumente
. Name motiviert durch (hängt von Einbettung in höher dimensionalen Raum ab) folgendes Bild:

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele:

I.2.3 Minkowski-Raum. ~r x 3 benutzt.

Tensoren auf einem Vektorraum

Das Levi-Civita-Symbol alias ε-tensor


1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Kapitel 15 Lineare Gleichungssysteme

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele:

L5 Matrizen I. Matrix: (Plural: Matrizen)

Mathematisches Kaleidoskop II Materialien Teil 3. Dr. Hermann Dürkop

Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung

Ausgangsfrage: gegeben Vektorraum, wieviele Komponenten hat. allgemein: ein Vektorraum mit, heisst 'Unterraum' von. ist ein Unterraum von V.

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

L5 Matrizen I: Allgemeine Theorie

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Kapitel 14 Lineare Gleichungssysteme

Definition: Euklidischer Raum mit Skalarprodukt. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:

10.2 Linearkombinationen

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

Satz 2.8 V sei ein endlichdimensionaler euklidischer Vektorraum. Für jeden Unterraum

Analysis für Physiker Zusätze

Übungsblatt

Multilineare Algebra

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

beschrieben wird. B' sei ein IS das derjenigen Weltlinie folgt, die P und Q in gleichförmiger Bewegung verbindet. Aus Sicht von A folgt B' Bahn mit

1.3 Transformation der Geschwindigkeit

LINEARE ALGEBRA II. FÜR PHYSIKER

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen

9.2 Invertierbare Matrizen

beschrieben wird. B' sei ein IS das derjenigen Weltlinie folgt, die P und Q in gleichförmiger Bewegung verbindet. Aus Sicht von A folgt B' Bahn mit

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Transformation Allgemeines Die Lage eines Punktes kann durch einen Ortsvektor (ausgehend vom Ursprung des Koordinatensystems

HM II Tutorium 1. Lucas Kunz. 24. April 2018

Kapitel 2: Mathematische Grundlagen

Lineare Algebra. 1 Lineare Abbildungen

Vektoren - Die Basis

zu beweisen, kann man sich daher auf einen speziellen, möglichst einfach strukturierten Raum

L5.6 Symmetrische, hermitesche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen)

Tensoren und Relativität

Mathematische Erfrischungen III - Vektoren und Matrizen

Kapitel 7. Lineare Abbildungen. 7.1 Motivation

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren

Vorkurs Mathematik B

5 Lineare Algebra (Teil 3): Skalarprodukt

Mathematik für Naturwissenschaftler II SS 2010

Das innere Produkt von zwei Vektoren in V entspricht dem standard Skalarprodukt ihrer Komponenten bezüglich einer Orthonormalbasis von V.

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Nun erinnern wir an die Konvention, dass die Komponenten von v V (bzgl. B) einen Spaltenvektor. v 1 v 2 v =

Lineare Algebra und analytische Geometrie II

Diagonalisierbarkeit symmetrischer Matrizen

Darstellungstheorie. der. Lorentzgruppe

Verschiedenes. Exponieren einer Matrix. Wir betrachten als Beispiel folgende Matrix: 0 1 A = 1 0

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

Kapitel 4. Lorentz-Tensoren

IX. Relativistische Formulierung der Elektrodynamik

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Mathematik II Frühjahrssemester 2013

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya

Euklidische und unitäre Vektorräume

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.

7 Lineare Abbildungen und Skalarprodukt

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Technische Universität München. Mathematik für Physiker 1

Mathematischer Vorkurs

8.2 Invertierbare Matrizen

Mathematische Grundlagen

1 Definitionen: 6 Punkte gesamt

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Analysis II. Vorlesung 37. Differenzierbare Kurven

5.4 Basis, Lineare Abhängigkeit

35 Matrixschreibweise für lineare Abbildungen

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

1 Euklidische und unitäre Vektorräume

Aus dem Beispiel lässt sich ablesen (und auch beweisen, siehe Mathematikvorlesung): Die Einheitsvektoren des Koordinatensystems K sind die Spalten der

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.

Wichtige Kenntnisse der Linearen Algebra

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Übersicht Kapitel 9. Vektorräume

Tensoren. Oliver Jin, Florian Stöttinger, Christoph Tietz. January 24, 2012

6 Symmetrische Matrizen und quadratische Formen

Matrizen und Drehungen

24 Minkowskis vierdimensionale Raumzeit

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.

Geometrie der Maxwell-Theorie. Max Camenzind Senioren Uni Würzburg

8.2 Invertierbare Matrizen

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Lorentz-Transformationen und Invarianz

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

L5.2 Inverse einer Matrix Betrachte im Folgenden lineare Abbildungen der Form: dann ist die Matrix, durch die A dargestellt wird, 'quadratisch', d.h.

Transkript:

Was fehlt derzeit im Internet? Sicherlich eine verständliche Einführung in Tensoren. Mehr von PLARTHIN gibt's im Internet auf http://plarthin.wordpress.com Literatur: - deutsche Wikipedia - Spacetime and Geometry, Sean Carroll

Für Pedanten: Alles hier gilt nur für endlichdimensionale Vektorräume. 0 Einstein'sche Summenkonvention & Schreibweisen. Einstein'sche Summenkonvention Natürlich kann man unmöglich erwarten, dass man Summenzeichen ( ) dort verwendet, wo sie hingehören - ist ja schließlich ungeheurer Aufwand. Daher ist es üblich, die Einstein'sche Summenkonvention zu benutzen. Über "doppelt auftretende Indizes wird summiert", kurz gesagt. I.d.R. meint man damit aber nur doppelt auftretende Indizes, die einmal "unten" und einmal "oben" auftreten. Dies ist deshalb bedeutsam, da es bei Tensoren ein Unterschied ist, ob ein Index oben oder unten steht, d.h.. Ein einfaches Beispiel hierfür ist die Matrixmultiplikation. Das Produkt einer - Matrix A mit einer -Matrix B ergibt eine -Matrix C, bei dem das Element etwa die Summe der Produkte der i-ten Zeile von Matrix A mit der j-ten Spalte von Matrix B beinhaltet: = Das Element in der i-ten Zeile, j-ten Spalte erhält man durch Summation der einzelnen Produkte Mathematisch ausgedrückt gilt also: Wie schon angedeutet macht es bei Tensoren einen Unterschied, ob Indizes oben oder unten stehen. Bei Matrizen mit reellen (oder komplexen) Werten wie hier ist dies nicht der Fall - das liegt daran, dass der zugrundeliegende Körper (Reelle/Komplexe Zahlen) recht freundlich beschaffen sind. Daher können wir also statt auch schreiben. Hier ist es wichtig, dass es sich nicht um Exponenten handelt! Da muss man einfach drauf achten: Aber nur selten werden Tensoren oder Matrizen quadriert o.ä.. Ansonsten setzen wir Klammern. Schreiben wir nun also statt nun - was wir ja dürfen aufgrund der Beschaffenheit der Matrizen, so erhalten wir den folgenden Ausdruck:

Wir sehen, dass das k hier doppelt auftritt - einmal unten und einmal oben. Das ist ab sofort das Signal für eine Summe. Häufig werden in einer Gleichung mehrerer solcher Indizes vorkommen. Dem entsprechen dann immer mehrere Summen. Bei (reell- oder komplexwertigen) Matrizen ist es häufig am günstigsten, sich darüber nicht allzuviele Gedanken machen. Teilweise werden wir schreiben. Schreibweisen, Ko- und Kontravarianz. Komponenten von Koordinaten werden "in den Exponenten" gestellt, d.h. der Vektor hat die Komponenten. Wieder drauf achten: Es ist kein Quadrat, sondern eben die Komponente. Wichtig: Vektoren kann man durch ihre Komponenten charakterisieren. Was bedeutet das? Eigentlich stellen wir Vektoren als Linearkombination der Basisvektoren dar: Wie oben gibt man aber häufig nur die Komponenten an. Dabei ist also implizit die Basis schon mitvereinbart. Verändert sich die Basis, so verändern sich diese Komponenten - aber genau umgekehrt. Ein Beispiel: Verschieben wir das Koordinatensystem um, so werden aus den alten Komponenten die neuen Koordinaten. Gleiches gilt bspw. bei Rotation - wer das Koordinatensystem um einen Winkel dreht, stellt fest, dass man die neuen Komponenten durch Drehung der alten um erhält. Skalierung o.ä. haben allesamt ein solches Verhalten. Da man genau die umgekehrte Transformation durchführen muss, nennt man die Komponenten der Vektoren, und verkürzt Vektoren selbst kontravariant. Im Dualen Vektorraum - also der Raum der lin. Abbildungen die zum Vektorraum gehört ist dies anders. Da die Abbildung linear ist, ist sie vollständig durch ihr Verhalten auf die Basisvektoren bestimmt: Kennen wir also die Werte, so wissen wir alles, was es über die Abbildung zu wissen gibt. Die "Komponenten" der Abb. sind dann also die. Lineare Transformationen können, wie wir wissen, durch Matrizen dargestellt werden. Die einzelnen Komponenten der Abb. transformieren ebenfalls: Sie transformieren also genauso wie die Basisvektoren selbst (Summe, Matrixmultiplikation). Daher sind die Elemente des Dualraums kovariant. Man beachte: Wir hätten wg. der Einstein'schen Summenkonvention oben auch die Summe weglassen können (denn das k "unten" und "oben" impliziert ja das Summieren über k).

1 Was zur Hölle sind Tensoren!? Tensoren sind eine Verallgemeinerung der Konzepte Skalar, Vektor und Matrix. All diese kann man als Tensor auffassen, aber Tensoren können noch mehr als nur das. Tensoren sind lineare Abbildungen - sie nehmen Vektoren, aber auch Elemente des zugehörigen Dualraums als Argument, und bilden das ganze ab in den "zugrundeliegenden Körper". Das ist in der Physik i.d.r. die reellen Zahlen. Definieren wir dies mathematisch genauer. Tensoren haben unterschiedlich viele Argumente, die sie auffassen. Man spricht von -Tensoren, wenn sie r Elemente des Dualraums und s Elemente des eigentlichen Vektorraums V "schlucken". Also: Dabei ist K der Körper, über den der Vektorraum V definiert ist - in der Physik also i.d.r. die reellen Zahlen. wird mit ein neuer Vektorraum mit Elementen der Form, wobei. Z.b. ist. Die zweite Bedingung ist, dass Tensoren multilinear sind, d.h. sie sind linear in jedem Argument, egal ob da ein Vektor oder ein Element des Dualraums drinsteht. Damit sehen wir sofort: Lineare Abbildungen - also die Elemente des Dualraums - sind einfache (0,1)- Tensoren: Sie nehmen einen Vektor und ordnem ihm eine Zahl zu. Die Menge all solcher Tensoren ist also der Dualraum selbst. Umgekehrt sind (1,0)-Tensoren diejenigen, die die Abbildungen des Dualraums in den Körper abbilden. Wie eben bilden diese Tensoren also den Dualraum der Elemente, die wir als Argument "hineinstecken" - daher ist die Menge all dieser Tensoren. Da endlichdimensionale Vektorräume reflexiv sind, ist. (Und was ist mit (0,0)-Tensoren? Das sind einfach nur Zahlen. Die Menge all dieser Tensoren ist der Körper selbst. Langweilig? Jap.) Sei nun Elemente von V und Elemente von. Das Tensorprodukt zweier Tensoren, ist der -Tensor Also einfach die Hinterereinanderausführung der beiden Tensoren. Beachte: Das Tensorprodukt ist nicht kommutativ. Da Tensoren linear sind sind sie, ähnlich wie oben beschrieben, durch Anwendung auf die Basisvektoren beschrieben. Seien daher nun im Folgenden die Basisvektoren des Dualraums, und die des eigentlichen Vektorraums. Wir benutzen hier Klammern, um anzudeuten, dass es sich um Nummerierung von Vektoren handelt - d.h. ist der erste Basisvektor und nicht die erste Komponente. Dann sind die Komponenten des Tensors gegeben durch Anwendung der zugehörigen Basisvektoren

Man beachte: usw. sind Zahlen (vgl. folgendes Beispiel) Machen wir ein Beispiel: Sei der Vektorraum. Dann ist das normale Skalarprodukt ein (0,2)-Tensor (denn er schluckt ja zwei Vektoren). Die Komponenten des Tensors sind dann: Denn das Skalarprodukt zweier gleicher Basisvektoren ist (da diese orthonormal ist) 1, sonst 0. Man beachte: Schreiben wir nur einzelne Indizes und keine Argumente, so ist eine Komponente gemeint, kommen auch Argumente vor, so schreiben wir der Vollständigkeit (häufig lässt man es weg) noch für einen -Tensor diese Werte oben und unten dran.

2 Weiterführendes Mathematisches Der Raum aller -Tensoren ist ein Vektorraum, d.h. Linearkombinationen (also z.b. Summen) von Tensoren sind wieder Tensoren. Dieser Vektorraum besitzt natürlich auch eine Basis. Wir wollen diese im Folgenden darstellen. Zunächst machen wir uns klar, dass die Basisvektoren von V, die wir usw. nennen, ebenfalls Tensoren sind, nämlich (1,0)-Tensoren. Sie nehmen also ein Element des Dualraums und bilden dies auf ein Element des zugrundeliegenden Körpers ab. Die Elemente des Dualraums sind aber lin. Abbildungen - also geschieht dies einfach so, dass diese lin. Abbildung auf diesen Basisvektor wirkt. Daher haben wir nun die einfachsten (1,0)-Tensoren (Basisvektoren von V) und die einfachsten (0,1)- Tensoren (Elemente des Dualraums) beisammen. Wir können aus diesen daher einfach -Tensoren basteln, etwa so: Natürlich geht dies nicht nur mit, sondern auch mit jedem anderen Basisvektor. Das heißt für jede der ersten r Positionen gibt es im n-dimensionalen genau n Möglichkeiten, und ebenso für die letzten s Positionen. Daher hat der -Raum also genau Basiselemente - dies entspricht auch genau der Zahl der Komponenten eines Tensors. Für die vierdimensionale Raumzeit sind es also Möglichkeiten. So wie man einen Vektor darstellt als Linearkombination der Basisvektoren, d.h.: Gilt dies auch für einen Tensor. Hier sieht man dann tatsächlich mal einen Vorteil der Einstein'schen Sumenkonvention. Schreiben wir das nämlich allgemein für einen Tensor: So sehen wir: Das läuft tatsächlich ganz analog - aber aufgrund der höheren "Dimensionalität" der Tensoren wird das ganze schnell eklig. Tensoren kann man verjüngen. Das heißt, aus einem -Tensor einen -Tensor machen. Dies geschieht, indem über einen oberen und einen unteren Index summiert wird. Also beispielsweise: Anders kann man nicht verjüngen - also etwa nicht nur über einen oberen oder nur einen unteren Index, sonst ist das Ergebnis kein wohldefinierter Tensor. Zusätzlich kann man mit einem Besonderen -Tensor - der verwendeten Metrik - mit

in der ungekrümmten Raumzeit (Spez. Relativitätstheorie) Indizes erhöhen bzw. herunterholen, dafür brauchen wir aber noch den zugehörigen inversen Tensor, der erfüllt. Dabei ist das Kronecker-Delta. Dies kann im Rahmen von Tensoren auf verschiedene Art aufgefasst werden ( (1,1)-Tensor, der der Identität entspricht, oder als (0,2)-Tensor,...). Wichtig ist: Falls, so ist es 1, sonst null. In der Standardbasis hat diese inverse Metrik die gleichen Komponenten wie die oben angegebene "normale" Metrik. Damit bewaffnet sieht man nun, dass wir aus "alten" Komponenten "neue" machen, wobei sich der Index verschiebt: Machen wir ein einfaches Beispiel, und nehmen uns einen einfachen (0,1)-Tensor (also eine normale Linearform) auf. Dieser Tensor hat die Komponenten Dann besagt der obige Satz, dass wir die neuen Komponenten wie folgt erhalten: Also ist bspw.: und analog folgen Wir sehen: In der ersten Komponente dreht sich das Vorzeichen um. Das ist eine Eigenschaft der in der Relativitätstheorie verwendeten Metrik. Ebenso kann man auf diese Art und weise einen Vektor in einen Dualvektor bringen und umgekehrt.

Somit sehen wir, dass dem Vektor (genauer: ) zum Dualvektor wird. Alles klar? Ein Tensor heißt symmetrisch bzgl. der Indizes ändert, also:, wenn er sich bei Tauschen dieser Indizes nicht Ändert sich dabei das Vorzeichen, so ist der Tensor antisymmetrisch bzgl.. (etwa bei der Determinante - das ist ein -Tensor für -Matrizen). Ist ein Tensor (anti-)symmetrisch bzgl. all ihrer Indizes, so heißt der ganze Tensor (anti-)symmetrisch. Es ist möglich, aus jedem Tensor einen (anti-)symmetrischen zu erzeugen, indem über all möglichen Permutationen dieser addiert wird - je nachdem, was man möchte mit wechselndem Vorzeichen oder ohne.

3 Verhalten unter Transformationen, alternative Definition Eine weitere Besonderheit von Tensoren ist ihr Verhalten unter Lorentztransformationen. Das ist in der Allgemeinen Relativitätstheorie wichtig. Lorentztransformationen sind solche, bei der für die zugehörige Transformationsmatrix gilt: Dabei bezeichnet die transformierte Matrix. ist die in rel. Mechanik verwendete Metrik - eine - Matrix der folgenden Gestalt: oder manchmal Solche lassen das in der rel. Mechanik verwendete Wegintervall invariant (Achtung: Auch hier teilweise mit anderem Vorzeichen verwendet). Vektoren transformieren wie gehabt: Was man in Komponenten schreiben kann als: Die Komponenten von Tensoren transformieren genauso (man beachte die Reihenfolge: Wann steht bei der Strich (=neue Komponente) oben, wann unten? - Kann man sich leicht merken, ist nämlich die Position, die auf der linken Gleichungsseite auch schon steht. Und auch nur so funktioniert die Konvention): Was nicht überraschen sollte. Schauen wir beispielsweise auf die Komponentendefinition eines - Tensors auf (wir zeigen die Rechnung nur für eine Komponente, der Rest geht analog): Dann müssen wir natürlich den Basiswechsel durchführen. Schließlich brauchen wir ja nun die "neuen" Basisvektoren, und es ist:

Wobei natürlich der i-te Basisvektor des transformierten Raumes ist. Simples einsetzen gibt uns dann: Wobei wir im ersten "Linearitätsschritt" die Summanden auseinandergezogen haben, im zweiten den konstanten Faktor herausgezogen haben. Die letzte Zeile kann man jetzt schreiben als: Einige Bücher definieren Tensoren als Sammlung an Zahlen, die wie oben transformieren. Aber wem ist damit schon geholfen...? Häufig nutzt man in der Physik allerdings nicht einzelne Tensoren, sondern Tensorfelder. Das heißt, jedem Punkt im Raum (in der Raumzeit) wird ein Tensor zugeordnet. Das sollte für die Vektorfeldgeplagten aber auch nicht das Drama sein.

4 Beispiele Neben den oben schon angesprochenen Beispielen machen wir das jetzt etwas konkreter. In diesem Kapitel wird die Einstein'sche Summenkonvention immer verwendet - ohne "Konvention"- Vorwarnung! Ein Beispiel ist das in der Relativitätstheorie andere Skalarprodukt, die auf das Zeitintervall besondere Rücksicht (ein anderes Vorzeichen) legt. Man bedenke, dass wir in der vierdimensionalen Raumzeit (Zeit, X, Y, Z) unterwegs sind. Mit lautet sie (Konvention beachten!) Auch, wenn man es "Skalarprodukt" nennt: Dieses erfüllt nicht die in der Mathematik geforderten Eigenschaften an ein Skalarprodukt! Zwei Vektoren heißen orthogonal, wenn dieses Produkt null ist (also wie gehabt). Aus diesem Skalarprodukt kann man sich natürlich - wie immer - eine Norm schnitzen. Allerdings verzichten wir diesmal auf die Wurzel: Diese Norm erfüllt ebenfalls nicht die in der Mathematik geforderten Eigenschaften. Aber dafür lassen sich andere interessante Eigenschaften ablesen. Punkte in der vierdimensionalen Raumzeit sind Ereignisse: Sie finden nicht nur an einem bestimmten Ort, sondern auch zu einer bestimmten Zeit statt. Da sich Information in der Relativitätstheorie nur mit max. c ausbreitet, kann es passieren, dass ein Ereignis an einem Punkt in der Raumzeit geschieht, dass ein Beobachter an einem anderen Punkt in der Raumzeit nicht beobachten kann - einfach, da selbst Licht, ausgesandt vom Ereignis nicht rechtzeitig den Beobachter erreicht. Solche Ereignisse haben eine positive Norm (der Beobachter sitze im Nullpunkt). Solche, bei denen es gerade so möglich ist (d.h. Geschwindigkeit = c ist ein Muss) haben die Norm null, und "normale" Ereignisse, die man also auch mit geringerer Reisegeschwindigkeit rechtzeitig erreichen würde haben negative Norm. Zu guter Letzt betrachten wir noch den Elektromagnetischen Feldstärketensor. Dieser ist ein antisymmetrischer -Tensor, und besitzt die Matrixdarstellung:

Dieser ist besonders dadurch praktisch, weil sich mit ihm die Maxwellgleichungen: unter Zuhilfenahme des "Vierer-Vektors" geschickt schreiben lassen: Was zwar mehrere Gleichungen für verschiedene Kombinationen von ökonomischere Schreibweise darstellt. sind, jedoch eine deutlich Kleine Anmerkung: Evtl. stimmen ein paar konstante Faktoren nicht. Sorry.