Analysis für Physiker Zusätze nach den Vorlesungen von Prof. Dr. Werner Timmermann (Sommersemester 2007, Wintersemester 2007/08) Herausgegeben von Jeffrey Kelling Felix Lemke Stefan Majewsky Stand: 23. Oktober 2008
Inhaltsverzeichnis Semester 2 3 1 Bemerkungen zur Tensorrechnung 3 1.1 Definitionen.......................................... 3 1.2 Rechenoperationen mit Tensoren.............................. 5 1.3 Basis und Koordinatendarstellung.............................. 6 1.4 Koordinatentransformation von Tensoren.......................... 7 Semester 3 9 2 Maxwellsche Gleichungen und Differentialformen 9 2.1 Grundlagen der Differentialformen............................. 9 2.2 Maxwellsche Gleichungen im Minkowski-Raum...................... 11
1.1 Definitionen Seite 3 1 Bemerkungen zur Tensorrechnung Oft wird ein Tensor definiert als ein System von Zahlen T ij... kl... mit 1 i, j, k, l,... n, das sich bei Koordinatentransformationen wie folgt transformiert:... Wir wählen eine äquivalente Definition. 1.1 Definitionen Ab jetzt ist es wichtig, ob Indizes oben oder unten steht. Im folgenden sind alle Vektorräume endlichdimensional und reell. In diesen Vektorräumen gibt es zunächst keine zusätzliche Struktur, insbesondere kein Skalarprodukt. V sei ein Vektorraum der Dimension n. (e 1,..., e n ) sei eine beliebige Basis von V. Für einen Vektor x V sind x i die Koordinaten von x bzgl. der Basis (e k ): x = n x i e i mit x i R, i = 1,..., n i=1 Bemerkung Einstein sche Summenkonvention Über doppelt (jeweils einmal oben und unten) auftretende Indizes wird automatisch summiert, zum Beispiel: n n x i e i x i e i oder A ij k Bk il A ij k Bk il Definition 1.1 i=1 Dualer Vektorraum Der duale Vektorraum V ist der Vektorraum der linearen Funktionale auf V, also V = L(V, R). k,i=1 Definition und Satz 1.2 Duale Basis Sei (e 1,..., e n ) eine beliebige Basis von V. Dann existiert eine Basis (e 1,..., e n ) von V (die zu (e 1,..., e n ) duale Basis) mit folgender Eigenschaft: Insbesondere ist dim V = dim V. e i (e j ) = δ i j (Kronecker-Symbol) Beweis Beachte im Folgenden stets: Eine lineare Abbildung ist bereits dadurch eindeutig definiert, dass man ihre Wirkung auf die Basisvektoren kennt! Also definiere e i (e j ) := δj i. Daraus folgt: e i (x) = e i (x j e j ) = x j (e i (e j )) = x j δ i j = x i Zu zeigen ist noch, dass (e 1,..., e n ) linear unabhängig ist (das ist eine Übungsaufgabe) und dass die (e 1,..., e n ) den Vektorraum V aufspannen. Sei f V, d.h. f(x) = f(x i e i ) = x i f(e i ). Setze c i := f(e i ); anscheinend ist f = c i e i. Das wollen wir zeigen. Sei g := c i e i. g(x) = c i e i (x j e j ) = c i x j e i (e j ) = c i x j δ i j = c i x i = f(x)
1.1 Definitionen Seite 4 Satz 1.3 Der zu V duale Vektorraum wird mit V := (V ) bezeichnet. Die Dimension von V ist wiederum n. Es existiert ein kanonischer Isomorphismus j : V V, der durch die Wirkung von j(x) V auf die Elemente f V definiert wird: [j(x)](f) := f(x) f V [j(x)](f) ist linear in f und auch in x. Außerdem ist j bijektiv. Beweis Für die Bijektivität von V genügt es, zu zeigen, dass j injektiv ist; daraus folgt die Surjektivität unmittelbar. Angenommen, j(x) = 0. Zu zeigen ist x = 0, d.h. [j(x)](f) = 0 f, also f(x) = 0 f x = 0 Im Allgemeinen wende e 1,..., e n auf x an. Das genügt, um x = 0 zu sehen. Bemerkung Im Folgenden identifizieren wir immer stillschweigend x und j(x), d.h. wir betrachten x(f) als [j(x)](f) = f(x). Definition 1.4 Seien E 1,..., E k Vektorräume. Eine Abbildung α : E 1... E k R heißt multilinear (bzw.multilinearform), wenn α in jeder Komponente linear ist: i = 1,..., k : α(u 1,..., u i + λv i,..., u k ) = α(u 1,..., u i,..., u k ) + λα(u 1,..., v i,..., u k ) Beispiel 1.1 E 1 = E 2 = E sei ein Vektorraum. Ein Skalarprodukt, : E E R, (u, v) u, v ist bilinear.
1.2 Rechenoperationen mit Tensoren Seite 5 Definition 1.5 Tensor Sei V ein Vektorraum und r, s N. 1. Ein r-fach kovarianter Tensor auf (über) V ist eine multilineare Abbildung α : V r := V }. {{.. V } R r-mal 2. Ein s-fach kontravarianter Tensor auf V ist eine multilineare Abbildung α : (V ) s := V }. {{.. V } R s-mal 3. Für r, s 0 ist ein r-fach kovarianter und s-fach kontravarianter Tensor auf V eine multilineare Abbildung α : V r (V ) s R Bezeichnungen Im folgenden sei das Tensorprodukt. T r (V ) T 0 r (V ) = V... V }{{} V. T s (V ) T s 0 (V ) = s k=1 r-mal ( r ) ( s Tr s (V ) = V i=1 Tensoren über V. = r V ist die Menge aller r-fach kovarianten Tensoren über i=1 V ist die Menge aller s-fach kontravarianten Tensoren über V. V k=1 ) ist die Menge aller r-fach kovarianten und s-fach kontravarianten Dass diese Mengen Vektorräume sind, zeigt man leicht. Im Folgenden sind zu bestimmen: Basen und Dimensionen dieser Räume das Verhalten dieser Räume bei Koordinatentransformation Rechenoperationen mit Tensoren 1.2 Rechenoperationen mit Tensoren Mit Tensoren können viele Rechenoperationen ausgeübt werden, zum Beispiel können gleichartige Tensoren linear kombiniert werden. Besonders wichtig ist das Tensorprodukt oder dyadische Produkt: Seien α Tr s (V ) und β Tr s (V ). Dann ist α β T s+s r+r (V ) und es gilt (α β) (v 1,..., v r, v r+1,..., v r+r, w 1,..., w s, w s+1,..., w s+s ) = α ( v 1,..., v r, w 1,..., w s) β (v r+1,..., v r+r, w s+1,..., w s+s ) Entsprechen wird α β... γ erklärt.
1.3 Basis und Koordinatendarstellung Seite 6 Beispiel 1.2 1. T 1 0 (V ) = V - Wirke α V (bzw. v V ) auf f V, dann ist α(f) v(f). Analog ist T 0 1 (V ) = V. 2. Seien f, g V [= T 1 (V )]. Dann ist f g T 2 (V ), also wirkt f g auf jeweils zwei Vektoren und es ist (f g) (v 1, v 2 ) = f(v 1 ) g(v 2 ) [v 1,2 V ] Seien v, w V [ = T 1 (V ) ]. Dann ist v w T 2 (V ) und es ist (v w) (f 1, f 2 ) = f 1 (v) f 2 (w) [f 1,2 V ] Die Tensoren der Familie α β bzw. α 1... α m heißen elementare Tensoren. (Wir sehen später, dass zum Beispiel die elementaren Tensoren f v mit f V und v V [ f v T 1 1 (V )] den Raum T 1 1 (V ) = V V aufspannen. Dazu braucht man Linearkombinationen!) Beispiel 1.2 (Fortsetzung) 3. Betrachte ein Skalarprodukt, in V. Das ist ein zweifach kovarianter Tensor, denn er bildet von V V nach R ab. Das Skalarprodukt ist in den Variablen symmetrisch, also ein symmetrischer Tensor. 4. Sei V ein Vektorraum mit einer festen Basis (e 1,..., e n ) und den Vektoren v 1,..., v n V. Seien z 1,..., z n die Koordinatenvektoren von v 1,..., v n bzgl. dieser Basis. Nun ordnen wir den Vektoren die Determinante einer Matrix aus ihren Spaltenvektoren zu: (v 1,..., v n ) z 1,..., z n Dadurch ist ein n-fach kovarianter Tensor definiert. Dieser Tensor ist alternierend, d.h. aus den Vertauschen zweier Argumente folgt ein Vorzeichenwechsel. 1.3 Basis und Koordinatendarstellung Satz 1.6 Sei (e i ) eine Basis für V und (e k ) die duale Basis in V (d.h. e k (e i ) = δk i ). Dann ist { e i 1... e ir e j1... e js : i k {1,..., k}, j l {1,..., n} } ( ) eine Basis von Tr s (V ). Beispiel 1.3 Sei dim V = 2. Wir suchen eine Basis für T 3 (V ) und finden acht Elemente: e 1 e 2 e 3, e 1 e 1 e 2,..., e 2 e 2 e 2 Beweis Zu zeigen: ( ) ist linear unabhängig und erzeugt T s r (V ). Aus Platzgründen sei s = 0 (und r beliebig), also ( ) = { e i 1... e ir : 1 i k n } Beachte, dass für die Anwendung eines Elementes dieser Menge auf die Basisvektoren von V gilt: ( e i 1... e ir) (e j1,..., e jr ) = e i 1 (e j1 )... e ir (e jr ) = δ i 1 j1... δ ir j r
1.4 Koordinatentransformation von Tensoren Seite 7 Angenommen, es ist c i1,...,i r e i 1... e ir = 0. Wende dies auch beliebige (e j1,..., e jr ) an: ci1,...,i r δ i 1 j1... δ ir j r = 0 c j1,...,j r = 0 Da dies für alle Basisvektoren (e j ) gilt, ist ( ) wirklich linear unabhängig. Noch zu zeigen: ( ) ist ein Erzeugendensystem von T r (V ). Sei α T r (V ) beliebig. Zu zeigen: α = a i1,...,i r e i 1... e ir ( ) Behauptung: Setze a k1,...,k r := α (e k1,..., e kr ). Diese a... erzeugen gemäß ( ) den Vektor α, d.h. für beliebige u 1,..., u r V ist ( ) α (u 1,..., u r ) = ai1,...,i r e i 1... e ir (u 1,..., u r )) Der Beweis dieser Aussage bleibt dem Leser als Übungsaufgabe überlassen, da er sehr lehrreich, wenn auch etwas umständlich ist. Hier zeigen wir eine vereinfachte Variante: Zwei Abbildungen α, β T r (V ) (analog für T s r (V )) sind schon gleich, wenn sie auf den Basisvektoren gleich sind: α (e j1,..., e jr ) = β (e j1,..., e jr ) 1 i k n ( ai1,...,i r e i 1... e ir) (e j1,..., e jr ) = a i1,...,i r δ i 1 j1... δ ir j r = a j1,...,j r = α (e j1,..., e jr ) (siehe oben) Bemerkung Die Darstellung α = a i1,...,i r e i1... e ir sieht für r = 2 anschaulich so aus: n α = a ij e i e j i,j=1 Allerdings lässt sich diese Formulierung nicht anschaulich auf r > 2 übertragen. Definition 1.7 Koordinaten eines Tensors Sei α T s r (V ). Dann heißt das System von Zahlen a j 1,...,j s i 1,...,i r := α ( e j 1,..., e js, e i1,..., e ir ) (1 j k, i l n) Koordinaten von α bzgl. der Basis (e 1,..., e n ), d.h. bezüglich ( ). 1.4 Koordinatentransformation von Tensoren Betrachte in V Basen (e 1,..., e n ) und (e 1,..., e n) mit den dualen Basen ( e 1,..., e n) und (e ) 1,..., e n in V. Sei x V und f V, dann ist x = x i e i = x j e j f = f i e i = f j e j e j = a i j e i e j = a ji e i (1) und e j = b j i e i e j = b ij e i (2)
1.4 Koordinatentransformation von Tensoren Seite 8 ( ) a i j kann als Matrix interpretiert werden: oderer Index = Zeilenindex, unterer Index = Spaltenindex (e i ) = ( e 1,..., e ) ( ) n aij, ( e j ) = ( ) e 1 b ij... e n Behauptung: Die Matrizen (a i j ) und (a ji ) sowie (b i j ) und (b ji ) sind jeweils invers zueinander (hier ohne Beweis). Die Transformation der Koordinaten eines Tensors erfolgt dann so: x j = a j i xi x j = a i x i (3) f j = b ji f i f j = bi j f i (4) Man zeigt, dass in unserem Falle der Wahl der Basen in V als duale Basen folgendes gilt: ( ) ( ) ( ) b i j = a ji b ji = ( a i ) j Aus (3) folgt die wichtige Merkregel : a j i = x j x i, a j x j i =, x j x j x i = x i xi, x j = xj x i x i
2.1 Grundlagen der Differentialformen Seite 9 2 Maxwellsche Gleichungen und Differentialformen Der Minkowski-Raum M ist der R 4 mit Elementen der Form x = (x 0, x 1, x 2, x 3 ), und darin eine Bilinearform g, das sogenannte Minkowski-Skalarprodukt (das aber kein richtiges Skalarprodukt ist) mit g(x, y) = x 0 y 0 x 1 y 1 x 2 y 2 x 3 y 3. Sei V ein (reeller) n-dimensionaler Vektorraum und g eine Bilinearform auf V mit den Eigenschaften: g ist symmetrisch g(x, y) = g(y, x) g ist nicht entartet Es gilt eine der folgenden äquivalenten Bedingungen: Wenn g(x, y) = 0 für festes x und alle y V, dann soll x = 0 folgen. Für eine (und damit jede) Basis (v i ) in V ist die Matrix (g(v i, v j )) invertierbar und zudem symmetrisch. Dann ist diese Matrix diagonalisierbar, es existiert also eine Basis (u i ) von V, für die (g(u i, u j )) Diagonalgestalt hat. Bei geeigneter Wahl der (u i ) hat (g(u i, u j )) =: (g ij ) die Gestalt: 1 0 0 0 0 0 0... 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0. 0 0 0 0.. 0 0 0 0 0 0 1 Das sogenannte Sylvestersche Trägheitsgesetz besagt: Die jeweilige Anzahl der Plus- und Minuszeichen ist unabhängig von der Basis. Im Minkowski-Raum liefert die Standard-Basis (e 0, e 1, e 2, e 3 ) von R 4 gerade 1 0 0 0 (g ij ) = 0 1 0 0 0 0 1 0 0 0 0 1 Man nennt eine Basis (w i ) von V orthonormal bezüglich g, wenn g(w i, w j ) = δ ij ist. 2.1 Grundlagen der Differentialformen Die Räume der Differentialformen aus R 4 wurden mit Ω s (R 4 ) bezeichnet, wobei s = 1,..., 4 ist. In Ω 0 (R 4 ) sind die beliebig oft differenzierbaren Funktionen auf R 4 enthalten. Die Elemente von Ω s (R 4 )
2.1 Grundlagen der Differentialformen Seite 10 haben in der Standarddarstellung die Struktur: Die Ableitung ist gegeben durch dω = ω = j 1 < <j s ω j1 j s dx j1... dx js j 1 < <j s dω j1 j s dx j1... dx js Ω s+1 (R 4 ) als Zurückführung auf Ableitungen in Räumen Ω s (R 4 ) mit kleinerem s. Für f Ω 0 (R 4 ) gilt df = 3 k=0 f x k dxk Außer (g ij ) wird auch die inverse Matrix betrachtet, die die Form (g ij ) hat. In unserem Fall ist g ij = g ij. Jetzt wird dieses g benutzt, um in den Ω s eine Bilinearform zu definieren. ω = σ = g(ω, σ) := ω j1 j s dx j 1... dx js j 1 < <j s σ i1 i s dx i 1... dx is i 1 < <i s g j 1i1 g jsis ω j1 j s σ i1 i s j 1 < <js i 1 < <is g auf Ω s ist wieder symmetrisch. In obiger Summe sind nur solche Summanden ungleich Null, in denen (j 1,..., j s ) = (i 1,..., i s ) ist, weil g ij = 0 für i j ist. Man sieht jetzt sofort, dass die e j 1 j s := dx j 1... dx js mit j 1 < < j s eine Orthonormalbasis bezüglich der Bilinearform g bilden. Mittels g wird der sogenannte Stern- Operator definiert: : Ω s (R 4 ) Ω 4 s (R 4 ), σ σ mit ω σ = g(ω, σ) dx 0... dx 3 =: g(ω, σ) µ ω Ω s (R 4 ) µ = dx 0... dx 3 ist eine 4-Form. Wegen ω Ω s und σ Ω 4 s ist ω σ Ω 4. Ω 4 besteht nur aus Elementen der Form f dx 0... dx 3. f ist aus C (R 4 ), und natürlich ist g(ω, σ) auch aus C (R 4 ). Der Operator hat unter anderem folgende Eigenschaften: (h σ) = h σ für h C (R 4 ), denn g(ω, h σ) = g(h ω, σ) = h g(ω, σ). ist eindeutig definiert, wenn man weiß, wie auf die Basiselemente wirkt, denn σ = i 1 < <i s σ i1 i s dx i1... dx is σ = Betrachte: e i 1,...,i nk = dx i 1... dx i k. Dann ist e i 1,...,i nk = ±e j 1 j 4 k, i 1 < <i s σ i1 i s (dx i1... dx is ) wobei j 1 <... < j 4 k ist und die j 1,..., j n 4 k {0, 1, 2, 3} \ {i 1,..., i n k} sind. Also ist zum Beispiel e 01 = ±e 23 und e 013 = ±e 2. Für k = 0: 1 ist Basis in Ω 0 und g(1, 1) = 1 1 = 1. Es ist 1 = dx 0... dx 3.
2.2 Maxwellsche Gleichungen im Minkowski-Raum Seite 11 Für k = 1: Es ist g(e 0, e 0 ) = 1 sowie g(e i, e i ) = g(dx i, dx i ) = g ii 1 1 = 1 für i 1. Es folgt: e 0 e 123 = µ e 0 = e 123 e 1 e 023 = µ e 1 = e 023 Für k = 2: Es ist g(e 0i, e 0i ) = 1 und g(e ij, e ij ) = 1 für i, j {1, 2, 3} und i < j. Also ergibt sich: e 01 = e 23 e 02 = e 13 e 03 = e 12 e 12 = e 03 e 13 = e 02 e 23 = e 01 Das Kodifferential δ : Ω s Ω s 1 wird definiert durch δ := d : Ω s Ω 4 s d Ω 5 s Ω s 1 2.2 Maxwellsche Gleichungen im Minkowski-Raum Führe in den Maxwell schen Gleichungen (in der Vorlesung in vereinfachter Form in den Formeln (18.5) und (18.6) dargestellt; relevant sind auch (18.7) bis (18.10)) Vierervektoren ein: J = (j 0, j 1, j 2, j 3 ) mit j 0 := ϱ A = (A 0, A 1, A 2, A 3 ) mit A 0 := V (18.10) wird jetzt div J = 0 Aus dem Ansatz (18.7) wird jetzt einheitlich folgendes (mit Kurzschreibweise j = / x j ): E 1 = ( 0 A 1 1 A 0 ) E 2 = ( 0 A 2 2 A 0 ) E 3 = ( 0 A 3 3 A 0 ) H 1 = ( 2 A 3 3 A 2 ) H 2 = ( 3 A 1 1 A 3 ) H 3 = ( 1 A 2 2 A 1 ) Definiere nun den sogenannten Faraday-Tensor: F = F µν dx µ dx ν mit F µν = µ A ν ν A µ µ<ν 0 E 1 E 2 E 3 F = E 1 0 H 3 H 2 E 2 H 3 0 H 1 E 3 H 2 H 1 0 Damit kann man zeigen, dass (18.6a) äquivalent sind zu µ F νλ + ν F λµ + λ F µν = 0 ( )
2.2 Maxwellsche Gleichungen im Minkowski-Raum Seite 12 für paarweise verschiedene µ, ν und λ zwischen 0 und 3. Zum Beispiel für µ, ν, λ = 1, 2, 3: 1 F 23 + 2 F 31 + 3 F 12 = 1 H 1 + 2 H 2 + 3 H 3 = div H = 0 Bilde die 1-Form ω A = 3 A i dx i. Aus Definition von F folgt: F = dω A. Daraus folgt df = d(dω A ) = 0; i=0 dies ist eine 3-Form. Schreibt man df = 0 in den Komponenten (=Faktoren vor dem Basiselement) aus, so erhält man genau ( ). Jetzt wird die 2-Form F berechnet: F = (F 01 dx 0 dx 1 + F 02 dx 0 dx 2 + F 03 dx 0 dx 3 + F 12 dx 1 dx 2 + F 13 dx 1 dx 3 + F 23 dx 2 dx 3 ) = F 01 dx 2 x 3 +... = G µν dx µ dx ν = G µ<ν 0 H 1 H 2 H 3 G = H 1 0 E 3 E 2 H 2 E 3 0 E 1 H 3 E 2 E 1 0 Dann kann man (18.6b) umschreiben zu: dg = 4π σ J σ J = j 0 dx 1 dx 2 dx 3 j 1 dx 0 dx 2 dx 3 + j 2 dx 0 dx 1 dx 3 j 3 dx 0 dx 1 dx 2 In Komponenten ist µ G νλ + ν G λµ + λ G µν = 4π j κ, wobei (κ, µ, ν, λ) eine gerade Permutation von (0, 1, 2, 3) ist. σ J = ω J = j κ dx κ mit j κ = j κ Dann kann man alles zusammenfassen: (18.6a) wird zu df = 0. (18.6b) wird zu dg = 4π σ J Es ist δf = d F = dg = (4π σ J ) = 4π σ J = 4π ω J.