Analysis für Physiker Zusätze

Ähnliche Dokumente
Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

Mathematik für Physiker, Informatiker und Ingenieure

Tensoren auf einem Vektorraum

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Euklidische und unitäre Vektorräume

3 Bilinearform, Basen und Matrizen

Multilineare Algebra

7 Vektorräume und Körperweiterungen

Wiederholungsserie II

2. Isotropie. Beweis: (i) (ii): β U ist nicht ausgeartet. U U = {0} (ii) (iii): β U ist nicht ausgeartet. Da β nicht ausgeartet ist, gilt U = U:

4 Orthogonale Endormorphismen

Lineare Algebra II (SS 13)

7.3 Unitäre Operatoren

3 Vektorräume abstrakt

Lineare Algebra II 8. Übungsblatt

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

10.2 Linearkombinationen

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung

Tensoren. Oliver Jin, Florian Stöttinger, Christoph Tietz. January 24, 2012

Lineare Abbildungen und Orthonormalsysteme

4 Bilinearformen und Skalarprodukte

Lineare Algebra I (WS 12/13)

Lineare Abbildungen und Matrizen

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a

Vorlesung. Mathematik für Physiker III. Kapitel 3 Differentialformen. 10. Differentialformen 1. Ordnung

Eigenwerte und Diagonalisierung

Kapitel 3 Lineare Algebra

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Lineare Algebra I Lösungsvorschlag

1 Eigenschaften von Abbildungen

Lineare Algebra I Zusammenfassung

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

3. Übungsblatt zur Lineare Algebra I für Physiker

Mathematische Erfrischungen III - Vektoren und Matrizen

1 Grundlagen zur Darstellungstheorie

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

Mathematik für Informatiker 1 Wintersemester 2013/14 Heimarbeitsblatt 14

Definitionen. b) Was bedeutet V ist die direkte Summe von U und W? V ist direkte Summe aus U und W, falls V = U + W und U W = {0}.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 12 (SS 2011) Abgabetermin: Donnerstag, 7. Juli.

Lineare Algebra und analytische Geometrie II

3 Bilinearformen und quadratische Formen

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 6 (WS 2010/2011) Abgabetermin: Donnerstag, 27. November

Technische Universität München Zentrum Mathematik. Übungsblatt 7

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

2 Die Dimension eines Vektorraums

LINEARE ALGEBRA II. FÜR PHYSIKER

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen

49 Tensorprodukt. Diese Abbildung ist offensichtlich bilinear. Sie hat außerdem die folgende universelle Eigenschaft:

Analysis. Lineare Algebra

Kapitel 5. Vektorräume mit Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt

ω : V V V (Die Vertauschung zweier Vektoren liefert ein extra Minuszeichen.)

Lineare Algebra. 7. Übungsstunde. Steven Battilana. battilana.uk/teaching

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

7.2 Die adjungierte Abbildung

Lösung zu Serie [Aufgabe] Zeige: Das folgende Diagramm kommutiert insgesamt genau dann, wenn alle 6 Teilquadrate kommutieren.

Lösung zu Serie 24. a ij b i b j. v = j=1. v = v j b j.

4 Lineare Abbildungen und Matrizen

Koordinaten und darstellende Matrizen

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

β 1 x :=., und b :=. K n β m

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Ausgewählte Lösungen zu den Übungsblättern 4-5

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

5 Diagonalisierbarkeit

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Wichtige Kenntnisse der Linearen Algebra

Übungen zur Linearen Algebra 1

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

4.2 Die adjungierte Abbildung

4.4 Hermitesche Formen

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

9 Tensoren. für jede Permutation π S q ; T heißt anti-symmetrisch, wenn T kπ(1)...k π(q) T k1...k q. = sgn(π) T k1...k q

1 Lineare Abbildungen

Leitfaden 20. t = dim V dimu.

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

Übungen zur Linearen Algebra 1

Basiswissen über Bilinearformen mit Betrachtung symmetrischer Bilinearformen

α i e i. v = α i σ(e i )+µ

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

6 Hauptachsentransformation

09. Lineare Abbildungen und Koordinatentransformationen

(1) In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt.

Lineare Algebra I für Mathematiker Lösungen

HM II Tutorium 1. Lucas Kunz. 24. April 2018

2.3 Basis und Dimension

und Unterdeterminante

und Unterdeterminante

Transkript:

Analysis für Physiker Zusätze nach den Vorlesungen von Prof. Dr. Werner Timmermann (Sommersemester 2007, Wintersemester 2007/08) Herausgegeben von Jeffrey Kelling Felix Lemke Stefan Majewsky Stand: 23. Oktober 2008

Inhaltsverzeichnis Semester 2 3 1 Bemerkungen zur Tensorrechnung 3 1.1 Definitionen.......................................... 3 1.2 Rechenoperationen mit Tensoren.............................. 5 1.3 Basis und Koordinatendarstellung.............................. 6 1.4 Koordinatentransformation von Tensoren.......................... 7 Semester 3 9 2 Maxwellsche Gleichungen und Differentialformen 9 2.1 Grundlagen der Differentialformen............................. 9 2.2 Maxwellsche Gleichungen im Minkowski-Raum...................... 11

1.1 Definitionen Seite 3 1 Bemerkungen zur Tensorrechnung Oft wird ein Tensor definiert als ein System von Zahlen T ij... kl... mit 1 i, j, k, l,... n, das sich bei Koordinatentransformationen wie folgt transformiert:... Wir wählen eine äquivalente Definition. 1.1 Definitionen Ab jetzt ist es wichtig, ob Indizes oben oder unten steht. Im folgenden sind alle Vektorräume endlichdimensional und reell. In diesen Vektorräumen gibt es zunächst keine zusätzliche Struktur, insbesondere kein Skalarprodukt. V sei ein Vektorraum der Dimension n. (e 1,..., e n ) sei eine beliebige Basis von V. Für einen Vektor x V sind x i die Koordinaten von x bzgl. der Basis (e k ): x = n x i e i mit x i R, i = 1,..., n i=1 Bemerkung Einstein sche Summenkonvention Über doppelt (jeweils einmal oben und unten) auftretende Indizes wird automatisch summiert, zum Beispiel: n n x i e i x i e i oder A ij k Bk il A ij k Bk il Definition 1.1 i=1 Dualer Vektorraum Der duale Vektorraum V ist der Vektorraum der linearen Funktionale auf V, also V = L(V, R). k,i=1 Definition und Satz 1.2 Duale Basis Sei (e 1,..., e n ) eine beliebige Basis von V. Dann existiert eine Basis (e 1,..., e n ) von V (die zu (e 1,..., e n ) duale Basis) mit folgender Eigenschaft: Insbesondere ist dim V = dim V. e i (e j ) = δ i j (Kronecker-Symbol) Beweis Beachte im Folgenden stets: Eine lineare Abbildung ist bereits dadurch eindeutig definiert, dass man ihre Wirkung auf die Basisvektoren kennt! Also definiere e i (e j ) := δj i. Daraus folgt: e i (x) = e i (x j e j ) = x j (e i (e j )) = x j δ i j = x i Zu zeigen ist noch, dass (e 1,..., e n ) linear unabhängig ist (das ist eine Übungsaufgabe) und dass die (e 1,..., e n ) den Vektorraum V aufspannen. Sei f V, d.h. f(x) = f(x i e i ) = x i f(e i ). Setze c i := f(e i ); anscheinend ist f = c i e i. Das wollen wir zeigen. Sei g := c i e i. g(x) = c i e i (x j e j ) = c i x j e i (e j ) = c i x j δ i j = c i x i = f(x)

1.1 Definitionen Seite 4 Satz 1.3 Der zu V duale Vektorraum wird mit V := (V ) bezeichnet. Die Dimension von V ist wiederum n. Es existiert ein kanonischer Isomorphismus j : V V, der durch die Wirkung von j(x) V auf die Elemente f V definiert wird: [j(x)](f) := f(x) f V [j(x)](f) ist linear in f und auch in x. Außerdem ist j bijektiv. Beweis Für die Bijektivität von V genügt es, zu zeigen, dass j injektiv ist; daraus folgt die Surjektivität unmittelbar. Angenommen, j(x) = 0. Zu zeigen ist x = 0, d.h. [j(x)](f) = 0 f, also f(x) = 0 f x = 0 Im Allgemeinen wende e 1,..., e n auf x an. Das genügt, um x = 0 zu sehen. Bemerkung Im Folgenden identifizieren wir immer stillschweigend x und j(x), d.h. wir betrachten x(f) als [j(x)](f) = f(x). Definition 1.4 Seien E 1,..., E k Vektorräume. Eine Abbildung α : E 1... E k R heißt multilinear (bzw.multilinearform), wenn α in jeder Komponente linear ist: i = 1,..., k : α(u 1,..., u i + λv i,..., u k ) = α(u 1,..., u i,..., u k ) + λα(u 1,..., v i,..., u k ) Beispiel 1.1 E 1 = E 2 = E sei ein Vektorraum. Ein Skalarprodukt, : E E R, (u, v) u, v ist bilinear.

1.2 Rechenoperationen mit Tensoren Seite 5 Definition 1.5 Tensor Sei V ein Vektorraum und r, s N. 1. Ein r-fach kovarianter Tensor auf (über) V ist eine multilineare Abbildung α : V r := V }. {{.. V } R r-mal 2. Ein s-fach kontravarianter Tensor auf V ist eine multilineare Abbildung α : (V ) s := V }. {{.. V } R s-mal 3. Für r, s 0 ist ein r-fach kovarianter und s-fach kontravarianter Tensor auf V eine multilineare Abbildung α : V r (V ) s R Bezeichnungen Im folgenden sei das Tensorprodukt. T r (V ) T 0 r (V ) = V... V }{{} V. T s (V ) T s 0 (V ) = s k=1 r-mal ( r ) ( s Tr s (V ) = V i=1 Tensoren über V. = r V ist die Menge aller r-fach kovarianten Tensoren über i=1 V ist die Menge aller s-fach kontravarianten Tensoren über V. V k=1 ) ist die Menge aller r-fach kovarianten und s-fach kontravarianten Dass diese Mengen Vektorräume sind, zeigt man leicht. Im Folgenden sind zu bestimmen: Basen und Dimensionen dieser Räume das Verhalten dieser Räume bei Koordinatentransformation Rechenoperationen mit Tensoren 1.2 Rechenoperationen mit Tensoren Mit Tensoren können viele Rechenoperationen ausgeübt werden, zum Beispiel können gleichartige Tensoren linear kombiniert werden. Besonders wichtig ist das Tensorprodukt oder dyadische Produkt: Seien α Tr s (V ) und β Tr s (V ). Dann ist α β T s+s r+r (V ) und es gilt (α β) (v 1,..., v r, v r+1,..., v r+r, w 1,..., w s, w s+1,..., w s+s ) = α ( v 1,..., v r, w 1,..., w s) β (v r+1,..., v r+r, w s+1,..., w s+s ) Entsprechen wird α β... γ erklärt.

1.3 Basis und Koordinatendarstellung Seite 6 Beispiel 1.2 1. T 1 0 (V ) = V - Wirke α V (bzw. v V ) auf f V, dann ist α(f) v(f). Analog ist T 0 1 (V ) = V. 2. Seien f, g V [= T 1 (V )]. Dann ist f g T 2 (V ), also wirkt f g auf jeweils zwei Vektoren und es ist (f g) (v 1, v 2 ) = f(v 1 ) g(v 2 ) [v 1,2 V ] Seien v, w V [ = T 1 (V ) ]. Dann ist v w T 2 (V ) und es ist (v w) (f 1, f 2 ) = f 1 (v) f 2 (w) [f 1,2 V ] Die Tensoren der Familie α β bzw. α 1... α m heißen elementare Tensoren. (Wir sehen später, dass zum Beispiel die elementaren Tensoren f v mit f V und v V [ f v T 1 1 (V )] den Raum T 1 1 (V ) = V V aufspannen. Dazu braucht man Linearkombinationen!) Beispiel 1.2 (Fortsetzung) 3. Betrachte ein Skalarprodukt, in V. Das ist ein zweifach kovarianter Tensor, denn er bildet von V V nach R ab. Das Skalarprodukt ist in den Variablen symmetrisch, also ein symmetrischer Tensor. 4. Sei V ein Vektorraum mit einer festen Basis (e 1,..., e n ) und den Vektoren v 1,..., v n V. Seien z 1,..., z n die Koordinatenvektoren von v 1,..., v n bzgl. dieser Basis. Nun ordnen wir den Vektoren die Determinante einer Matrix aus ihren Spaltenvektoren zu: (v 1,..., v n ) z 1,..., z n Dadurch ist ein n-fach kovarianter Tensor definiert. Dieser Tensor ist alternierend, d.h. aus den Vertauschen zweier Argumente folgt ein Vorzeichenwechsel. 1.3 Basis und Koordinatendarstellung Satz 1.6 Sei (e i ) eine Basis für V und (e k ) die duale Basis in V (d.h. e k (e i ) = δk i ). Dann ist { e i 1... e ir e j1... e js : i k {1,..., k}, j l {1,..., n} } ( ) eine Basis von Tr s (V ). Beispiel 1.3 Sei dim V = 2. Wir suchen eine Basis für T 3 (V ) und finden acht Elemente: e 1 e 2 e 3, e 1 e 1 e 2,..., e 2 e 2 e 2 Beweis Zu zeigen: ( ) ist linear unabhängig und erzeugt T s r (V ). Aus Platzgründen sei s = 0 (und r beliebig), also ( ) = { e i 1... e ir : 1 i k n } Beachte, dass für die Anwendung eines Elementes dieser Menge auf die Basisvektoren von V gilt: ( e i 1... e ir) (e j1,..., e jr ) = e i 1 (e j1 )... e ir (e jr ) = δ i 1 j1... δ ir j r

1.4 Koordinatentransformation von Tensoren Seite 7 Angenommen, es ist c i1,...,i r e i 1... e ir = 0. Wende dies auch beliebige (e j1,..., e jr ) an: ci1,...,i r δ i 1 j1... δ ir j r = 0 c j1,...,j r = 0 Da dies für alle Basisvektoren (e j ) gilt, ist ( ) wirklich linear unabhängig. Noch zu zeigen: ( ) ist ein Erzeugendensystem von T r (V ). Sei α T r (V ) beliebig. Zu zeigen: α = a i1,...,i r e i 1... e ir ( ) Behauptung: Setze a k1,...,k r := α (e k1,..., e kr ). Diese a... erzeugen gemäß ( ) den Vektor α, d.h. für beliebige u 1,..., u r V ist ( ) α (u 1,..., u r ) = ai1,...,i r e i 1... e ir (u 1,..., u r )) Der Beweis dieser Aussage bleibt dem Leser als Übungsaufgabe überlassen, da er sehr lehrreich, wenn auch etwas umständlich ist. Hier zeigen wir eine vereinfachte Variante: Zwei Abbildungen α, β T r (V ) (analog für T s r (V )) sind schon gleich, wenn sie auf den Basisvektoren gleich sind: α (e j1,..., e jr ) = β (e j1,..., e jr ) 1 i k n ( ai1,...,i r e i 1... e ir) (e j1,..., e jr ) = a i1,...,i r δ i 1 j1... δ ir j r = a j1,...,j r = α (e j1,..., e jr ) (siehe oben) Bemerkung Die Darstellung α = a i1,...,i r e i1... e ir sieht für r = 2 anschaulich so aus: n α = a ij e i e j i,j=1 Allerdings lässt sich diese Formulierung nicht anschaulich auf r > 2 übertragen. Definition 1.7 Koordinaten eines Tensors Sei α T s r (V ). Dann heißt das System von Zahlen a j 1,...,j s i 1,...,i r := α ( e j 1,..., e js, e i1,..., e ir ) (1 j k, i l n) Koordinaten von α bzgl. der Basis (e 1,..., e n ), d.h. bezüglich ( ). 1.4 Koordinatentransformation von Tensoren Betrachte in V Basen (e 1,..., e n ) und (e 1,..., e n) mit den dualen Basen ( e 1,..., e n) und (e ) 1,..., e n in V. Sei x V und f V, dann ist x = x i e i = x j e j f = f i e i = f j e j e j = a i j e i e j = a ji e i (1) und e j = b j i e i e j = b ij e i (2)

1.4 Koordinatentransformation von Tensoren Seite 8 ( ) a i j kann als Matrix interpretiert werden: oderer Index = Zeilenindex, unterer Index = Spaltenindex (e i ) = ( e 1,..., e ) ( ) n aij, ( e j ) = ( ) e 1 b ij... e n Behauptung: Die Matrizen (a i j ) und (a ji ) sowie (b i j ) und (b ji ) sind jeweils invers zueinander (hier ohne Beweis). Die Transformation der Koordinaten eines Tensors erfolgt dann so: x j = a j i xi x j = a i x i (3) f j = b ji f i f j = bi j f i (4) Man zeigt, dass in unserem Falle der Wahl der Basen in V als duale Basen folgendes gilt: ( ) ( ) ( ) b i j = a ji b ji = ( a i ) j Aus (3) folgt die wichtige Merkregel : a j i = x j x i, a j x j i =, x j x j x i = x i xi, x j = xj x i x i

2.1 Grundlagen der Differentialformen Seite 9 2 Maxwellsche Gleichungen und Differentialformen Der Minkowski-Raum M ist der R 4 mit Elementen der Form x = (x 0, x 1, x 2, x 3 ), und darin eine Bilinearform g, das sogenannte Minkowski-Skalarprodukt (das aber kein richtiges Skalarprodukt ist) mit g(x, y) = x 0 y 0 x 1 y 1 x 2 y 2 x 3 y 3. Sei V ein (reeller) n-dimensionaler Vektorraum und g eine Bilinearform auf V mit den Eigenschaften: g ist symmetrisch g(x, y) = g(y, x) g ist nicht entartet Es gilt eine der folgenden äquivalenten Bedingungen: Wenn g(x, y) = 0 für festes x und alle y V, dann soll x = 0 folgen. Für eine (und damit jede) Basis (v i ) in V ist die Matrix (g(v i, v j )) invertierbar und zudem symmetrisch. Dann ist diese Matrix diagonalisierbar, es existiert also eine Basis (u i ) von V, für die (g(u i, u j )) Diagonalgestalt hat. Bei geeigneter Wahl der (u i ) hat (g(u i, u j )) =: (g ij ) die Gestalt: 1 0 0 0 0 0 0... 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0. 0 0 0 0.. 0 0 0 0 0 0 1 Das sogenannte Sylvestersche Trägheitsgesetz besagt: Die jeweilige Anzahl der Plus- und Minuszeichen ist unabhängig von der Basis. Im Minkowski-Raum liefert die Standard-Basis (e 0, e 1, e 2, e 3 ) von R 4 gerade 1 0 0 0 (g ij ) = 0 1 0 0 0 0 1 0 0 0 0 1 Man nennt eine Basis (w i ) von V orthonormal bezüglich g, wenn g(w i, w j ) = δ ij ist. 2.1 Grundlagen der Differentialformen Die Räume der Differentialformen aus R 4 wurden mit Ω s (R 4 ) bezeichnet, wobei s = 1,..., 4 ist. In Ω 0 (R 4 ) sind die beliebig oft differenzierbaren Funktionen auf R 4 enthalten. Die Elemente von Ω s (R 4 )

2.1 Grundlagen der Differentialformen Seite 10 haben in der Standarddarstellung die Struktur: Die Ableitung ist gegeben durch dω = ω = j 1 < <j s ω j1 j s dx j1... dx js j 1 < <j s dω j1 j s dx j1... dx js Ω s+1 (R 4 ) als Zurückführung auf Ableitungen in Räumen Ω s (R 4 ) mit kleinerem s. Für f Ω 0 (R 4 ) gilt df = 3 k=0 f x k dxk Außer (g ij ) wird auch die inverse Matrix betrachtet, die die Form (g ij ) hat. In unserem Fall ist g ij = g ij. Jetzt wird dieses g benutzt, um in den Ω s eine Bilinearform zu definieren. ω = σ = g(ω, σ) := ω j1 j s dx j 1... dx js j 1 < <j s σ i1 i s dx i 1... dx is i 1 < <i s g j 1i1 g jsis ω j1 j s σ i1 i s j 1 < <js i 1 < <is g auf Ω s ist wieder symmetrisch. In obiger Summe sind nur solche Summanden ungleich Null, in denen (j 1,..., j s ) = (i 1,..., i s ) ist, weil g ij = 0 für i j ist. Man sieht jetzt sofort, dass die e j 1 j s := dx j 1... dx js mit j 1 < < j s eine Orthonormalbasis bezüglich der Bilinearform g bilden. Mittels g wird der sogenannte Stern- Operator definiert: : Ω s (R 4 ) Ω 4 s (R 4 ), σ σ mit ω σ = g(ω, σ) dx 0... dx 3 =: g(ω, σ) µ ω Ω s (R 4 ) µ = dx 0... dx 3 ist eine 4-Form. Wegen ω Ω s und σ Ω 4 s ist ω σ Ω 4. Ω 4 besteht nur aus Elementen der Form f dx 0... dx 3. f ist aus C (R 4 ), und natürlich ist g(ω, σ) auch aus C (R 4 ). Der Operator hat unter anderem folgende Eigenschaften: (h σ) = h σ für h C (R 4 ), denn g(ω, h σ) = g(h ω, σ) = h g(ω, σ). ist eindeutig definiert, wenn man weiß, wie auf die Basiselemente wirkt, denn σ = i 1 < <i s σ i1 i s dx i1... dx is σ = Betrachte: e i 1,...,i nk = dx i 1... dx i k. Dann ist e i 1,...,i nk = ±e j 1 j 4 k, i 1 < <i s σ i1 i s (dx i1... dx is ) wobei j 1 <... < j 4 k ist und die j 1,..., j n 4 k {0, 1, 2, 3} \ {i 1,..., i n k} sind. Also ist zum Beispiel e 01 = ±e 23 und e 013 = ±e 2. Für k = 0: 1 ist Basis in Ω 0 und g(1, 1) = 1 1 = 1. Es ist 1 = dx 0... dx 3.

2.2 Maxwellsche Gleichungen im Minkowski-Raum Seite 11 Für k = 1: Es ist g(e 0, e 0 ) = 1 sowie g(e i, e i ) = g(dx i, dx i ) = g ii 1 1 = 1 für i 1. Es folgt: e 0 e 123 = µ e 0 = e 123 e 1 e 023 = µ e 1 = e 023 Für k = 2: Es ist g(e 0i, e 0i ) = 1 und g(e ij, e ij ) = 1 für i, j {1, 2, 3} und i < j. Also ergibt sich: e 01 = e 23 e 02 = e 13 e 03 = e 12 e 12 = e 03 e 13 = e 02 e 23 = e 01 Das Kodifferential δ : Ω s Ω s 1 wird definiert durch δ := d : Ω s Ω 4 s d Ω 5 s Ω s 1 2.2 Maxwellsche Gleichungen im Minkowski-Raum Führe in den Maxwell schen Gleichungen (in der Vorlesung in vereinfachter Form in den Formeln (18.5) und (18.6) dargestellt; relevant sind auch (18.7) bis (18.10)) Vierervektoren ein: J = (j 0, j 1, j 2, j 3 ) mit j 0 := ϱ A = (A 0, A 1, A 2, A 3 ) mit A 0 := V (18.10) wird jetzt div J = 0 Aus dem Ansatz (18.7) wird jetzt einheitlich folgendes (mit Kurzschreibweise j = / x j ): E 1 = ( 0 A 1 1 A 0 ) E 2 = ( 0 A 2 2 A 0 ) E 3 = ( 0 A 3 3 A 0 ) H 1 = ( 2 A 3 3 A 2 ) H 2 = ( 3 A 1 1 A 3 ) H 3 = ( 1 A 2 2 A 1 ) Definiere nun den sogenannten Faraday-Tensor: F = F µν dx µ dx ν mit F µν = µ A ν ν A µ µ<ν 0 E 1 E 2 E 3 F = E 1 0 H 3 H 2 E 2 H 3 0 H 1 E 3 H 2 H 1 0 Damit kann man zeigen, dass (18.6a) äquivalent sind zu µ F νλ + ν F λµ + λ F µν = 0 ( )

2.2 Maxwellsche Gleichungen im Minkowski-Raum Seite 12 für paarweise verschiedene µ, ν und λ zwischen 0 und 3. Zum Beispiel für µ, ν, λ = 1, 2, 3: 1 F 23 + 2 F 31 + 3 F 12 = 1 H 1 + 2 H 2 + 3 H 3 = div H = 0 Bilde die 1-Form ω A = 3 A i dx i. Aus Definition von F folgt: F = dω A. Daraus folgt df = d(dω A ) = 0; i=0 dies ist eine 3-Form. Schreibt man df = 0 in den Komponenten (=Faktoren vor dem Basiselement) aus, so erhält man genau ( ). Jetzt wird die 2-Form F berechnet: F = (F 01 dx 0 dx 1 + F 02 dx 0 dx 2 + F 03 dx 0 dx 3 + F 12 dx 1 dx 2 + F 13 dx 1 dx 3 + F 23 dx 2 dx 3 ) = F 01 dx 2 x 3 +... = G µν dx µ dx ν = G µ<ν 0 H 1 H 2 H 3 G = H 1 0 E 3 E 2 H 2 E 3 0 E 1 H 3 E 2 E 1 0 Dann kann man (18.6b) umschreiben zu: dg = 4π σ J σ J = j 0 dx 1 dx 2 dx 3 j 1 dx 0 dx 2 dx 3 + j 2 dx 0 dx 1 dx 3 j 3 dx 0 dx 1 dx 2 In Komponenten ist µ G νλ + ν G λµ + λ G µν = 4π j κ, wobei (κ, µ, ν, λ) eine gerade Permutation von (0, 1, 2, 3) ist. σ J = ω J = j κ dx κ mit j κ = j κ Dann kann man alles zusammenfassen: (18.6a) wird zu df = 0. (18.6b) wird zu dg = 4π σ J Es ist δf = d F = dg = (4π σ J ) = 4π σ J = 4π ω J.