Tensoranalysis Mai 2010

Ähnliche Dokumente
Aus dem Beispiel lässt sich ablesen (und auch beweisen, siehe Mathematikvorlesung): Die Einheitsvektoren des Koordinatensystems K sind die Spalten der

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Kapitel 2. Mathematische Grundlagen. Koordinatensystem

Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung

Tensoren. Oliver Jin, Florian Stöttinger, Christoph Tietz. January 24, 2012

5 Lineare Algebra (Teil 3): Skalarprodukt

20. und 21. Vorlesung Sommersemester

2.3.4 Drehungen in drei Dimensionen

Verschiedenes. Exponieren einer Matrix. Wir betrachten als Beispiel folgende Matrix: 0 1 A = 1 0

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Mathematische Grundlagen der Tensoralgebra und Tensoranalysis

Das Levi-Civita-Symbol alias ε-tensor

FB 13, FG Kontinuumsmechanik Dipl.-Ing. J. FRISCHMANN

Hilfsblätter Lineare Algebra

Vom Spannungstensor zum Impulsstrom

Kapitel 22. Aufgaben. Verständnisfragen. Rechenaufgaben

Zusammenfassung zum Thema Vektor- und Matrizenrechnung

Aufgaben zu Kapitel 22

Übungsblatt

Definition: Euklidischer Raum mit Skalarprodukt. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Vektoren - Die Basis

Tensoren auf einem Vektorraum

Eigenwerte (Teschl/Teschl 14.2)

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Lineare Algebra. Teil III. Inhaltsangabe

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

Übungsblatt Wiederholung: Vektoralgebra, Nabla-Operator, Integralsätze.

3 Rechnen mit Indizes

1 Mathematische Hilfsmittel

Theoretische Physik 1, Mechanik

1 Darstellungsmatrizen

3.6 Eigenwerte und Eigenvektoren

Trägheitstensor einer kontinuierlichen Massenverteilung

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

Blatt 3 Hausaufgaben

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)

5.2 Drehimpuls, Drehmoment und Trägheitstensor

Diagonalisierbarkeit symmetrischer Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Klassische Theoretische Physik II (Theorie B) Sommersemester 2016

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat.

Proseminar Lineare Algebra II, SS 11. Blatt

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Grundsätzliches Produkte Anwendungen in der Geometrie. Vektorrechnung. Fakultät Grundlagen. Juli 2015

Mathematische Erfrischungen III - Vektoren und Matrizen

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011

Vektoren. Kapitel Skalare, Vektoren, Tensoren. 3.2 Vektoren

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7

3 Matrizenrechnung. 3. November

Probeklausur zu Mathematik 2 für Informatik

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Eigenwerte (Teschl/Teschl 14.2)

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle.

Lineare Algebra für PhysikerInnen

Mathematische Grundlagen

09. Lineare Abbildungen und Koordinatentransformationen

Lineare Algebra 1. Roger Burkhardt

8.2 Invertierbare Matrizen

zu beweisen, kann man sich daher auf einen speziellen, möglichst einfach strukturierten Raum

Otto-von-Guericke-Universität Magdeburg Lehrstuhl Mikrosystemtechnik

5. Krümmung Der Riemann sche Krümmungstensor

Tutorium Mathematik II, M Lösungen

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

4.4 Eigenwerte und Eigenvektoren

Mathematik I für MB und ME

Prof. Dr. J. Schumacher Merkblatt zur Strömungsmechanik 1 Institut für Thermo- und Fluiddynamik Technische Universität Ilmenau

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Klassische Theoretische Physik I WS 2013/ Kronecker und Levi-Civita Symbole ( = 50 Punkte)

9.2 Invertierbare Matrizen

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

03. Vektoren im R 2, R 3 und R n

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

MC-Serie 11: Eigenwerte

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Transkript:

Tensoranalysis Mai 2010 Einführung Der Tensor ist ein mathematisches Objekt aus der Algebra und Differentialgeometrie. Der Begriff wurde ursprünglich in der Physik eingeführt und später mathematisch präzisiert. Die Tensoranalysis ist ein wichtiges Werkzeug der Physik, mit dem systematisch richtungsabhängige Stoffeigenschaften (Anisotropien) untersucht werden. Anschaulich, wenn auch mathematisch nicht exakt, kann man sich einen Tensor als eine mehrdimensionale Matrix vorstellen. (Levi-Civita-Tensor) Tensoren sind von unterschiedlicher Stufe, die der Anzahl der Indizes ihrer Komponenten entspricht. Im speziellen sind Tensoren 0-ter Stufe Skalare und Tensoren 1-ter Stufe sind Vektoren. Der im Bild angeführte Levi-Civita-Tensor ist ein Tensor 3-ter Stufe. Im engeren Sinne versteht man unter einem Tensor einen Tensor 2-ter Stufe, der im R 3 durch eine 3 3 Matrix repräsentiert wird. Das Ziel der Tensoranalysis besteht nun darin, aus der Vielzahl von Komponenten(Koordinaten), durch die eine tensorielle Größe beschrieben wird, die physikalisch wesentlichen Invarianten, d.h. die vom gewählten Koordinatensystem unabhängigen Größen, herauszukomprimieren. Ein einfaches Beispiel dafür ist die Länge eines Vektors r in verschiedenen kartesischen Systemen K bzw. K : r 2 = r r = x 2 + y 2 + z 2 = x 2 + y 2 + z 2 Egal in welchem Koordinatensystem ein Vektor gegeben ist, sein Betragsquadrat kann überall in gleicher Weise berechnet werden. Koordinatensysteme Um physikalische Objekte beschreiben zu können, ist die Angabe eines Koordinatensystems notwendig. Ein Vektor im R 3 wird z.b. in einem kartesischen Koordinatensystem durch seine Projektionen auf die drei Koordinatenachsen vollständig beschrieben. Im weiteren sollen erst einmal nur kartesische Koordinatensysteme betrachtet werden. Die Bezeichnungen der Koordinaten werden dabei jetzt mit Indizes durchnummeriert, so dass gilt (x, y, z) (x 1, x 2, x 3 ). Dem entsprechend stellt sich das Quadrat eines Vektors (s.o.) wie folgt dar:

r r = 3 x i x i = 3 x ix i i=1 i=1 Gemäß der von Einstein eingeführeten Summenkonvention werden in der Tensorrechnung die Summenzeichen weggelassen. Man versteht also bei zwei gleichlautenden Indizes in tensoriellen Ausdrücken eine automatische Absummation. Damit erhält man abkürzend und gleichzeitig übersichtlicher: r r = x i x i = x ix i Ein kartesisches Koordinatensystem ist durch drei paarweise senkrecht aufeinander stehenden Basisvektoren { e i } von der Länge 1 festgelegt. Ein solches System von Vektoren heißt orthonormiert. Für die Skalarprodukte der Basisvektoren gilt: e i e j = δ ij = { 1 i = j 0 i j Dabei ist δ ij das Kroneckersymbol, das sind die Elemente der Einheitsmatrix. Die Basisvektoren eines gegenüber K gedrehten Systems K, die { e i }, lassen sich durch Linearkombinationen der ursprünglichen Basisvektoren { e k } darstellen: e i = a ik e k (Summenkonvention beachten!) Die Matrix der linearen Transformation erhält man aus den Skalarprodukten der Basisvektoren a ik = e i e k. Da die neue Basis ebenfalls orthonormiert sein muss, folgt: e i e j = a ik e k a jl e l = a ik a jl e k e l = a ik a jl δ kl = a ik a jk = δ ij 2

Eine Matrix  = (a ij), die die Drehung einer orthonormierten Basis in eine ebensolche realisiert, heißt orthogonal und hat die Eigenschaft: a ik a jk = a ik a T kj = δ ij oder in Matrixform  ÂT = ˆ1 Dabei bezeichnet ÂT die zu  transponierte Matrix und ˆ1 die Einheitsmatrix. Die transponierte Matrix einer orthogonalen Matrix  ist somit gleich ihrer inversen Matrix  1! Die lineare Transformationen des Koordinatensystems wird auch als orthogonale Transformation bezeichnet. Für einen Vektor r müssen die Koordinaten in den Systemen K und K natürlich auch durch die Drehmatrix verknüpft sein. Tatsächlich gilt: x i = r e i = r a ik e k = a ik r e k = a ik x k Die Koordinaten transformieren sich also genau so wie die Basisvektoren! Aus der Theorie der Determinanten folgt für eine orthogonale Matrix, dass gelten muss, und wegen det(â ÂT ) = det(ˆ1) = 1 det(â ÂT ) = det(â) det(ât ) = det(â)2 dass der Betrag ihrer Determinante gleich 1 sein muss! Da aber  reell ist, so ist ihre Determinante entweder +1 oder -1. Bei positiver Determinante liegt eine sogenannte reine Drehung vor, ein Rechtssystem bleibt ein Rechtssystem. Bei negativer Determinante ist die Drehung mit einer Inversion Î (Spiegelung am Zentrum) verknüpft, so dass aus einem Rechtssystem ein Linkssystem wird und umgekehrt. (In einem komplexen Vektorraum muss zur Sicherung der Normierbarkeit einer der beiden Faktoren im Skalarprodukt komplex konjugiert werden. Eine entsprechende Drehung im komplexen Vektorraum, die das Skalarprodukt invariant lässt, heißt dann unitär und die zugehörige Drehmatrix Û hat die Eigenschaft Û Û + = ˆ1, wobei gilt Û + = (Û ) T.) 3

Der Tensorbegriff Ein Tensor n-ter Stufe im R 3 ist ein Objekt, das in einem gegebenen Koordinatensystem durch 3 n Komponenten T i1 i 2...i n mit n Indizes bestimmt ist, die sich bei Drehung des Koordinatensystems mit der orthogonalen Drehmatrix  wie folgt transformieren: T i 1 i 2...i n = a i1 k 1 a i2 k 2 a ink n T k1 k 2...k n Ein Tensor 0-ter Stufe heißt Skalar. Ein Skalar ist ohne Index und in allen Koordinatensystemen gleichgroß. Man sagt auch, ein Skalar ist invariant gegenüber Drehungen des Koordinatensystems. Ein Tensor 1-ter Stufe heißt Vektor. Die Komponenten eines Vektors (z.b. des Ortsvektors r) in einem kartesischen Koordinatensystem K sind seine Koordinaten x i. Sie sind einfach indiziert und transformieren sich bei orthogonaler Drehung des Koordinatensystems mit der entsprechenden orthogonalen Drehmatrix Â: x i = a ik x k. In Matrixform stellt sich die Transformation eines Spaltenvektors x = (x 1, x 2, x 3 ) T sehr einfach mit Hilfe des Matrixproduktes dar: x =  x. Ein Tensor 2-ter Stufe heißt im engeren Sinne einfach Tensor und besitzt 3 3 = 9 Komponenten, die sich in Gestalt einer Matrix t ij anordnen lassen. Die Komponenten eines solchen Tensors haben zwei Indizes und transformieren sich bei Drehung des Systems mit der Matrix  wie folgt: t ij = a ik a jl t kl = a ik t kl a T lj In Matrixform stellt sich die Transformation eines Tensors (2-ter Stufe) sehr einfach durch das folgende Matrixprodukt dar: ˆT =  ˆT ÂT Äußeres Tensorprodukt Als äußeres Tensorprodukt bezeichnet man ein Objekt aus den Produkten der Tensorkomponenten zweier gegebener Tensoren in einem bestimmten Koordinatensystem. Wie leicht zu sehen, ist dieses Objekt wieder ein Tensor, dabei von der summarischen Stufe der beiden Faktor-Tensoren. Die Transformationsvorschrift für einen entsprechenden Tensor ist erfüllt. T (m+n) i 1 i 2...i m+n = A (m) i 1 i 2...i m B (n) i m+1 i m+2...i m+n Auf diese Weise lassen sich Tensoren von beliebig hoher Stufe erzeugen. So lässt sich aus den Komponenten zweier Vektoren a i und b j ein Tensor zweiter Stufe c ij = a i b j bilden. Dieser Tensor heißt dyadisches Produkt der Vektoren a und b und man schreibt Ĉ = a b. 4

Inneres Tensorprodukt Als inneres Tensorprodukt bezeichnet man ein Objekt aus den Produkten der Tensorkomponenten zweier gegebener Tensoren in einem bestimmten Koordinatensystem, in dem jeweils ein Index der Faktoren gleichgesetzt und darüber absummiert wird. Es entsteht ein Tensor der summarischen Stufe der Faktoren vermindert um zwei, z.b. T (m+n 2) i 1 i 2...i m 1 i m+1...i m+n 2 = A (m) i 1 i 2...i m 1 l B(n) i m+1 i m+2...i m+n 2 l (Summation über l) Ein solches Produkt wird auch Überschiebung oder Faltung der Tensoren A (m) und B (n) genannt. Das innere Tensorpodukt aus den Komponenten zweier Vektoren a i und b j ist nichts anderes als das Skalarprodukt der beiden Vektoren s = a b = a l b l (Summation über l). Es ist ein Tensor 0-ter Stufe und somit ein Skalar, also eine Invariante. Unabhängig von seinem Ursprung kann man bei einem Tensor der Stufe n 2 immer zwei seiner Indizes gleichsetzen und darüber absummieren. Ein auf diese Weise gebildetes spezielles inneres Tensorprodukt heißt Tensorverjüngung: B (n 2) i 1...i n 2 = A (n) i 1...i n 2 l l (Summation über l) Natürlich kann über beliebig zwei Indizes verjüngt werden, es müssen nicht die letzten beiden in der Reihenfolge sein. Mit Hilfe der Verjüngung kann man Tensoren von gerader Stufe bis zu Skalaren reduzieren und so die eigentlich interessierenden Invarianten finden. Die Verjüngung eines Tensors (2-ter Stufe) führt zu einer der wichtigsten Invarianten, nämlich der Spur des Tensors: Sp ˆT = T l l (Summation über l) Eigenschaften von Tensoren (2-ter Stufe) Ein wichtiges Merkmal von Tensoren sind ihre Symmetrieeigenschaften. Dabei unterscheidet man symmetrische von antisymmetrischen (oder schiefsymmetrischen) Tensoren. Die Symmetrie bezieht sich auf die beiden Indizes eines Tensors. Ein Tensor heißt symmetrisch, wenn bei Indexvertauschung gilt T ij = T ji und antisymmetrisch, wenn dabei ein Vorzeichenwechsel auftritt, d.h. T ij = T ji. Antisymmetrische Tensoren haben also nur Nullen auf ihrer (Haupt-)Diagonalen, und bestehen damit aus nur drei unabhängigen Komponenten. Symmetrische Tensoren haben sechs unabhängige Komponenten, da die Diagonalkomponenten hinzukommen. 5

Die Eigenschaften der Symmetrie sind invariant! Man kann leicht zeigen, dass der Tensor ˆT =  ˆT ÂT im gedrehten Koordinatensystem K genau so wie ˆT im System K symmetrisch bzw. antisymmetrisch sein muss. Offensichtlich ist nun die Summe zweier Tensoren, definiert durch die Summe ihrer Komponenten mit gleichen Indizes in einem System K, auf Grund der Linearität der Transformationsvorschrift wiederum ein Tensor:  + ˆB = Ĉ Auf dieser Basis lässt sich somit jeder Tensor  in seinen symmetrischen und antisymmetrischen Anteil zerlegen:  sym = 1 2 ( + ÂT )  as = 1 2 ( ÂT ) Die Summe dieser so definierten Anteile ergibt erneut den Ausgangstensor:  = Âsym + Âas Der Einheitstensor ˆ1 ist ein ganz besonderer Tensor 2-ter Stufe! 1 0 0 Als Matrix stellt er sich mit Hilfe der Eins-Matrix dar ˆ1 = 0 1 0 0 0 1 Seine Komponenten sind die Kroneckersymbole δ ij (s.o.). Bei Drehung des Systems mit einer orthogonalen Matrix  erhält man: ˆ1 =  ˆ1 ÂT =  ÂT = ˆ1 Der Einheitstensor hat also in allen Koordinatensystemen die gleichen Komponenten δ ij. Er ist der einzige Tensor (2-ter Stufe), der als Tensor im Ganzen invariant ist mit allen seinen Komponenten! 6

Der (Pseudo-)Tensor 3-ter Stufe ɛ ijk von Levi-Civita ist der sogenannte vollständig anisymmetrische Tensor 3-ter Stufe. Seine Komponenten sind gleich dem Vorzeichen (+1, -1 oder 0), mit dem die Dreierprodukte T 1i T 2j T 3k und T i1 T j2 T k3 in die Berechnung der Determinante der Matrix ˆT eingehen. Es gilt: 1 falls (ijk) eine gerade Permutation von (123) ɛ ijk = 1 falls (ijk) eine ungerade Permutation von (123) 0 falls (ijk) keine Permutation von (123) Gleich Null sind alle Komponenten ɛ ijk, bei denen mindestens zwei der Indizes übereinstimmen, z.b. ɛ 112 oder ɛ 133. Die Eigenschaft der vollständigen Antisymmetrie bzgl. beliebig zweier Indizes folgt aus der Definition. Als gerade Permutation von (123)werden die zyklischen Vertauschungen bezeichnet, d.h. neben (123) die (231) und (312). Ungerade Permutationen erhält man durch antizyklische Vertauschung, das sind also (213), (132) und (321). Die Vertauschung von zwei Indizes ändert somit die Parität der Permutation und es gilt: ɛ ijk = ɛ jik = ɛ ikj = ɛ kji Wenn der Levi-Civita-Tensor ɛ ijk im K-System die obigen Werte besitzt, welche hat er dann im K -System? ɛ ijk = a il a jm a kn ɛ lmn = ɛ ijk det  = { ɛijk ɛ ijk falls det  = 1, bei reiner Drehung falls det  = 1, bei Spiegeldrehung Der Levi-Civita-Tensor ɛ ijk ist somit wie δ ij ein invarianter Tensor, der in allen Rechtssystemen die oben angegebenen Werte besitzt. Bei einem Übergang in ein Linkssystem ändert er als Tensor sein Vorzeichen gegenüber dem oben definierten Levi-Civita-Symbol. Benutzt man die Determinantendefinition mit dem Levi-Civita-Symbol bezüglich der Einheitsmatrix  = ˆ1, lässt sich zeigen dass: δ 1i δ 1j δ 1k δ il δ im δ in ɛ ijk = δ 2i δ 2j δ 2k und ɛ ijk ɛ lmn = δ jl δ jm δ jn gelten. δ 3i δ 3j δ 3k δ kl δ km δ kn Daraus folgen bei Verjüngung des letzten Tensors 6-ter Stufe in einem, zwei oder drei Indexpaaren die mitunter nützlichen Formeln: ɛ ijk ɛ imn = δ jm δ jn = δ jm δ kn δ jn δ km ɛ ijk ɛ ijn = 2δ kn ɛ ijk ɛ ijk = 3! = 6 δ km δ kn Mit Hilfe des Levi-Civita-Symbols lässt sich auch das Vektorprodukt zweier Vektoren a j und b k sehr einfach darstellen. Es gilt ( a b) i = ɛ ijk a j b k 7

Lineare Algebra und Invarianten Um für die homogene Eigenwertaufgabe ˆT y = λ y mit der Tensor-Matrix ˆT und dem Spaltevector y = (y 1, y 2, y 3 ) T nichttriviale Lösungen bestimmen zu können, muss die Koeffizientenmatrix ˆT λˆ1 entarten. Multipliziert man diese Gleichung mit einer orthogonalen Matrix  von links, entsteht das Gleichungssystem  ˆT ÂT  y = λâ y, wobei die ˆ1 Matrix geschickt eingeschoben wurde. Der Eigenvektor y wird im gedrehten System K zum Eigenvektor  y mit unverändertem Eigenwert. Das charakteristische Polynom P (λ) hat also in allen Koordinatensystemen identische Nullstellen λ, d.h. es ist invariant gegenüber Drehungen. Es lässt sich nachprüfen, dass P (λ) = det( ˆT λˆ1) = λ 3 + SpT λ 2 + 1 2 (Sp ˆT 2 (Sp ˆT ) 2 ) λ + det ˆT Für eine Tensormatrix ˆT ist also das charakteristische Polynom mit samt seinen Nullstellen (Eigenwerten) und demzufolge (s.o.) die Größen SpT, Sp ˆT 2 und auch det ˆT Invarianten des Tensors! Dass die Determinante eine Invariante ist, erkennt man auch leicht aus der Beziehung: det ˆT = det  ˆT ÂT = det  det ˆT det ÂT = det ˆT. Tensoren in der Physik Tensoren sind überall dort notwendig und nützlich, wo es um richtungsabhängige Eigenschaften geht. In der Mechanik rotierender Körper ist die Massenverteilung bezüglich der Achsen wichtig. Der Massenträgheitstensor gibt darüber Auskunft: E Rot. = 1 2 J ijω i ω j In der Elastizitätstheorie beschreibt man den Deformationszustand eines Körpers mit Hilfe des Deformationstensors ε ij, der sich durch das Spannungsfeld im Körper, das durch den Spannungstensor σ ij gegeben ist, einstellt. In linearer Näherung (Hooke sches Gesetz) gilt dort: σ ij = C ijkl ε kl mit dem Tensor der elastischen Moduln C ijkl, einem Tensor 4-ter Stufe. In der Elektrodynamik hängt die dielektrische Verschiebungsdichte D i über den dielektrischen Materialtensor ɛ ij mit der elektrischen Feldstärke E j zusammen: D i = ɛ ij E j. Mit dem dielektrischen Tensor ɛ ij (ω) beschreibt sich die Kristalloptik mit z.b. der Doppelbrechung. Die physikalischen Tensoren 2-ter Stufe sind in der Regel alle symmetrisch, so dass es immer ein geeignetes Koordinatensystem (Hauptachsensystem) gibt, in dem diese Tensoren Diagonalform haben. Dabei gilt, dass solche Hauptachsen immer auch Symmetrieachsen im Körper (Kristall) sind. 8

Kristallsymmetrie und dielektrischer Tensor Kristallsymmetrie Darstellung Z Relationen Triklin(C i ) Γ = 3A u 6 Monoklin(C 2h ) Γ = A u + 2B u 4 Orthorhombisch(D 2h ) Γ = B 1u +B 2u + B 3u 3 Tetragonal(D 4h ) Γ = A 2u + E u 2 Trigonal(D 3d ) Γ = A 2u + E u 2 Hexagonal(D 6h ) Γ = A 2u + E 1u 2 Axiale Symmetrie Kontinuum (D h ) Γ = A 2u + E 1u 2 Kubisch(O h ) Γ = T 1u 1 Volle Isotropie - Kontinuum (SO(3) =R C i ) Γ = D ( ) l=1 1 ɛ xx, ɛ yy, ɛ zz ɛ xy, ɛ yz, ɛ zx ɛ xx, ɛ yy, ɛ zz ɛ xy, ɛ yz =ɛ zx =0 ɛ xx, ɛ yy, ɛ zz ɛ xx = ɛ yy, ɛ zz ɛ xx = ɛ yy, ɛ zz ɛ xx = ɛ yy, ɛ zz ɛ xx = ɛ yy, ɛ zz ɛ xx =ɛ yy =ɛ zz ɛ xx =ɛ yy =ɛ zz Zum Auffinden der Symmetrierelationen in der Tabelle ist es am einfachsten die Transformation des Vektors (x, y, z) T und des damit berechneten dyadischen Produktes bezüglich der Symmetrieoperationen zu überlegen. Beispielsweise folgt für eine horizontale Spiegelebene senkrecht zur z-achse bei Spiegelung x x, y y, z z und somit ɛ xz = ɛ xz = 0 ebenso auch ɛ yz = 0 usw. 9

Kristallsymmetrie und elastischer Tensor in Vogt schen Indizes Kristallsymmetrie Darstellung Z T nm =T mn (m, n=1...6) Triklin(C i ) Γ=A g 21 alle T nm verschieden Monoklin(C 2h ) Γ=4A g + 2B g 13 T nm 0, T m5 =T m6 =0 (m, n=1, 2, 3, 4) T 55, T 66, T 56 Orthorhombisch(D 2h ) Tetragonal(D 4h ) Γ=3A 1g + B 1g +B 2g + B 3g 9 Γ=2A 1g + B 1g +B 2g + E g 6 Trigonal(D 3d ) Γ=2A 1g + 2E g 6 Hexagonal(D 6h ) Axiale Symmetrie Kontinuum (D h ) Kubisch(O h ) Volle Isotropie - Kontinuum (SO(3) =R C i ) Γ=2A 1g + E 1g +E 2g 5 Γ=2A 1g + E 1g +E 2g 5 Γ=A 1g + E g +T 2g 3 Γ=D (0) + D (2) 2 T nm 0 (m, n=1, 2, 3) T 44, T 55, T 66 T 11 =T 22,T 13 =T 23,T 55 =T 66 T 12,T 33,T 44 T 11 =T 22,T 13 =T 23,T 55 =T 66 T 12 =T 11 3 2 T 44,T 33,T 44 T 15 = T 25 = 3 2 T 46 T 11 =T 22,T 13 =T 23,T 55 =T 66 T 12 =T 11 3 2 T 44,T 33,T 44 T 11 =T 22,T 13 =T 23,T 55 =T 66 T 12 = 3 2 T 44,T 33 T 11 =T 22 =T 33, T 44 =T 55 =T 66 T 12 =T 13 =T 23 T 11 =T 22 =T 33, T 44 =T 55 =T 66 T 12 =T 23 =T 31 =T 11 3 2 T 44 10