Das Levi-Civita-Symbol alias ε-tensor
|
|
- Hans Bachmeier
- vor 5 Jahren
- Abrufe
Transkript
1 1 Das Levi-Civita-Symbol alias ε-tensor Wir gehen aus vom Kreuzprodukt und schreiben dieses auf eine zunächst komplex anmutende Art: a a 2 b 3 a 3 b 2 0 a 3 a 2 b 1 b = a 3 b 1 a 1 b 3 = a 3 0 a 1 b 2 = a 1 b 2 a 2 b 1 a 2 a 1 0 b b 1 = a a a b 2 = b = a b Im Prinzip ist das seltsam ausschauende Objekt vor a b der ε-tensor in überanschaulicher Schreibweise. In ihm stecken alle Eigenschaften drin, die das Kreuzprodukt so mit sich bringt. Beispielsweise ist dessen Antisymmetrie dadurch erkennbar, dass die drei auftretenden Matrizen selbst antisymmetrisch sind. Bis jetzt ist zwar alles richtig, doch ist in praktischen Rechnungen das monströse Objekt nicht sehr hilfreich weil zu unhandlich. Infolgedessen betrachtet man immer nur eine einzige Komponente des Kreuzprodukts und schreibt dieses dann in folgender Form: ( a b) k = ε ijk a i b j i=1 j=1 Der erste Index i steht hierbei für die laufende Nummer der drei obigen Matrizen und die letzten beiden Indizes für die Zeilen bzw. Spalten einer solchen Matrix. (Zur Information für besonders Motivierte: Die drei auftretenden Matrizen sind die Generatoren der Lie-Algebra SO(3), also der dreidimensionalen reellen orthogonalen Matrizen (AA = A A = 1) mit Determinante 1. Das hat damit zu tun, dass das Kreuzprodukt selbst die Eigenschaften einer Liealgebra ausweist.) Summiert wird über die doppelt vorkommenden Indizes. Da diese im Endergebnis nicht mehr auftauchen, werden sie auch als stumme Indizes bezeichnet. Indizes, über die nicht summiert wird, müssen im Endergebnis wieder auftreten (Erhaltung der Indexstruktur); solche tragen die Bezeichnung
2 2 freie Indizes. Da über doppelte Indizes sowieso summiert wird, kann man die Summenzeichen eigentlich auch gleich weglassen. Diese sind unnötiger Ballast, den man nicht explizit hinschreiben muss. Theoretische Physiker sind wie Mathematiker nämlich faul. Also schreiben wir: ( a b) k = ε ijk a i b j Natürlich muss man die Summenzeichen immer im Hinterkopf behalten. Mit der Zeit bekommt man jedoch den Dreh raus. Diese berühmte Notation stammt von Albert Einstein persönlich. In der Relativitätstheorie treten nämlich auch sehr viele Summen auf und dann ist es besonders lästig, die Summenzeichen immer mitschleppen zu müssen. Es ist sinnvoll, auf den Begriff der totalen Antisymmetrie einzugehen. Dies bedeutet, dass sich das Vorzeichen von ε ijk ändert, sobald man zwei Indizes vertauscht: ε jik = ε ijk, ε ikj = ε ijk Setzen wir zwei Indizes gleich (also beispielsweise i = j), so gilt ε iik = ε iik, was nur für ε iik = 0 erfüllt ist. Analog funktioniert dies für die anderen Indizes. Sind also zwei oder mehr Indizes gleich, so verschwindet das Levi-Civita-Symbol. Setzt man ε 123 = 1, so gilt: ε 123 = 1, ε 231 = 1, ε 312 = 1 ε 321 = 1, ε 213 = 1, ε 132 = 1 ε 111 = 0, ε 112 = 0, ε 113 = 0, ε 121 = 0, ε 131 = 0, ε 311 = 0,... Die Antisymmetrie des Kreuzprodukts spiegelt sich in der Antisymmetrie des ε-tensors wieder. Zusammenfassend kann man sagen: 1 für (i, j, k) zyklisch aus (1, 2, 3) ε ijk = 1 für (i, j, k) antizyklisch aus (1, 2, 3) 0 sonst (zwei oder drei Indizes gleich) Erleben wir nun das Levi-Civita-Symbol in seiner Anwendung: 1.) Kreuzprodukt: Das Kreuzprodukt zweier Vektoren a und b ist wieder ein Vektor (der auf diesen beiden Vektoren senkrecht steht). Die k-te Komponente dieses neuen Vektors c lässt sich mit dem Levi-Civita-Symbol schreiben: c k = ( a b) k = 3 3 ε ijk a i b j i=1 j=1 Summiert wird über die beiden Indizes i und j. Der Index k ist frei, über diesen
3 3 wird nicht summiert. Führen wir also die Summationen aus: c 1 = ( a b) 1 = = ε }{{} 111 a 1 b 1 + ε 121 a }{{} 1 b 2 + ε 131 a }{{} 1 b 3 + ε 211 a }{{} 2 b 1 + ε }{{} 311 a 3 b 1 + ε 221 a }{{} 2 b 2 + ε 231 a }{{} 2 b 3 + ε 321 a }{{} 3 b 2 = =1 = 1 = a 2 b 3 a 3 b 2 Für die anderen beiden Komponenten gilt (wobei wir nun die ε ijk mit zwei oder drei gleichen Indizes sofort gleich null setzen): c 2 = ( a b) 2 = ε 132 a 1 b 3 + ε 312 a 3 b 1 = a 3 b 1 a 1 b 3 c 3 = ( a b) 3 = ε 123 a 1 b 2 + ε 213 a 2 b 1 = a 1 b 2 a 2 b 1 Zusammenfassend gilt also (wie wir aus der Schule wissen): a a 2 b 3 a 3 b 2 b = a 3 b 1 a 1 b 3 a 1 b 2 a 2 b 1 2.) Determinante einer Matrix: a.) 2 2-Matrix: det(a) = 2 2 ε ij a 1i a 2j = ε 12 a 11 a 22 + ε 21 a 12 a 21 = a 11 a 22 a 12 a 21 i=1 j=1 Hier haben wir also das zweidimensionale ε-symbol verwendet, das analog zum dreidimensionalen definiert ist. Es gilt also: ε ij = ε ji, ε ii = 0 ε 11 = ε 22 = 0, ε 12 = 1, ε 21 = 1
4 4 b.) 3 3-Matrix: det(a) = ε ijk a 1i a 2j a 3k = i=1 j=1 k=1 = ε 123 a 11 a 21 a 31 + ε 231 a 12 a 23 a 31 + ε 312 a 13 a 21 a 32 + ε 132 a 11 a 23 a 32 + ε 321 a 13 a 22 a 31 + ε 213 a 12 a 21 a 33 = = a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 a 11 a 23 a 32 a 13 a 22 a 31 a 12 a 21 a 33 Das ist nichts anderes als die bekannte Sarrussche Regel. Determinanten höherdimensionaler Matrizen kann man mit einem entsprechenden höherdimensionalen Levi-Civita-Symbol definieren, das dieselben Eigenschaften hat. Damit wollen wir uns jedoch jetzt nicht beschäftigen. Wie behandelt man eine δ-funktion, deren Argument selbst wieder eine Funktion ist? Wir führen als erstes den allgemeinen Beweis für eine beliebige Funktion ). Dazu nehmen wir an, ) habe n Nullstellen x 1,..., x k,..., x n. Die Steigungen in den jeweiligen Nullstellen bezeichnen wir mit g (x 1 ),..., g (x k ),..., g (x n ). Auszuwerten ist nun folgendes: + δ())f(x) dx
5 5 Wir machen die Substitution y = ) mit = g (x) dx und erhalten: g( ) g( ) g (x) δ(y)f(g 1 (y)) An dieser Stelle teilen wir die Funktion bei der Integration in verschiedene Intervalle ein; in einem einzigen dieser Intervalle liege eine Nullstelle. Wie die Intervallgrenzen genau gewählt werden, ist hierbei egal. + + δ())f(x) dx = k ε) k +ε) 0 +ε) 0 ε) g (x k ) δ(y)f(g 1 (y)) g (x 1 ) δ(y)f(g 1 (y)) +... n+ε) n ε) g (x n ) δ(y)f(g 1 (y)) Nun müssen wir jedoch noch beachten, ob die erste Ableitung in der jeweiligen Nullstelle > 0 oder < 0 ist. Ist sie > 0 wie im ersten Bild, so können wir einfach die Integration ausführen, wobei wir beachten, dass g 1 (0) eine Nullstelle von ), also x k, ist. k +ε) k ε) g (x k ) δ(y)f(g 1 (y)) = 1 g (x k ) f(g 1 (0)) = 1 g (x k ) f(x k) für g (x k ) > 0 Im Falle g (x k ) < 0, wie auf dem zweiten Bild, müssen wir die Integrationsgrenzen
6 6 vertauschen, da dann die untere Integrationsgrenze größer ist als die obere: k +ε) k ε) g (x k ) δ(y)f(g 1 (y)) = k ε) k +ε) = 1 g (x k ) f(x k) für g (x k ) < 0 g (x k ) δ(y)f(g 1 (y)) = 1 g (x k ) f(g 1 (0)) = Zusammenfassend können wir mittels der Betragsfunktion schreiben; n k=1 1 g (x k ) f(x k) Damit ist die Wirkung von δ()) auf eine Testfunktion f(x) gezeigt und wir schließen daraus: δ()) = n k=1 1 g (x k ) δ(x x k) mit k ) = 0 und g (x k ) 0
Verschiedenes. Exponieren einer Matrix. Wir betrachten als Beispiel folgende Matrix: 0 1 A = 1 0
Verschiedenes Exponieren einer Matrix Wir betrachten als Beispiel folgende Matrix: A = Man kann die Funktion f(a) einer Matrix A so berechnen, indem man auf die Reihendarstellung der Funktion f(x) zurückgeht.
MehrIn allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle.
Nachschlag:Transposition von Matrizen Sei Explizit: Def: "Transponierte v. A": (tausche Zeilen mit Spalten d.h., spiegle in der Diagonale) m Reihen, n Spalten n Reihen, m Spalten z.b. m=2,n=3: Eigenschaft:
MehrProf. Dr. J. Schumacher Merkblatt zur Strömungsmechanik 1 Institut für Thermo- und Fluiddynamik Technische Universität Ilmenau
Prof. Dr. J. Schumacher Merkblatt zur Strömungsmechanik 1 Institut für Thermo- und Fluiddynamik Technische Universität Ilmenau Mathematische Grundlagen Mit den folgenden mathematischen Grundlagen sollten
Mehr[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.
Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung falls und nur falls ist bijektiv, d.h. ihre Matrix ist invertierbar, (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv
MehrLösung 01 Klassische Theoretische Physik I WS 15/16
Karlsruher Institut für Technologie Institut für theoretische Festkörperphysik www.tfp.kit.edu Lösung Klassische Theoretische Physik I WS 5/6 Prof. Dr. G. Schön Punkte Sebastian Zanker, Daniel Mendler
MehrDefinition: Euklidischer Raum mit Skalarprodukt. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:
Definition: Euklidischer Raum mit Skalarprodukt Einsteinsche Summenkonvention (ES): über doppelt vorkommende Indizes wird summiert. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:
MehrAus dem Beispiel lässt sich ablesen (und auch beweisen, siehe Mathematikvorlesung): Die Einheitsvektoren des Koordinatensystems K sind die Spalten der
7 Aus dem Beispiel lässt sich ablesen (und auch beweisen, siehe Mathematikvorlesung): Folgerung: Drehmatrizen haben die Determinante. Folgerung: Drehmatrizen sind orthogonale Matrizen, das heißt D = D
Mehr, c d. f + e + d. ae + bg a f + bh. ce + dg c f + dh
Die Determinante Blockmatrizen Bemerkung: Für zwei 2 2-Matrizen gilt a b e f a b c d g h c d e g a b, c d f h a c b e + d a g, c f + ae + bg a f + bh ce + dg c f + dh b d h Sind die Einträge der obigen
Mehr3 Rechnen mit Indizes
3 Rechnen mit Indizes Übersicht 3.1 Einstein sche Summenkonvention..... 91 3.2 Skalarprodukt und das Kronecker-Symbol..... 93 3.3 Der Levi-Civita-Tensor... 97 3.4 Produkte mit Kronecker und Levi-Civita...
MehrUniversität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n
Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrTensoren. Oliver Jin, Florian Stöttinger, Christoph Tietz. January 24, 2012
Tensoren Oliver Jin, Florian Stöttinger, Christoph Tietz January 24, 2012 Inhaltsverzeichnis Einleitung Einstein sche Summenkonvention Ko- und Kontravariant Stufen Transformationsverhalten Symmetrie Tensoralgebra
MehrWirtschaftsmathematik Formelsammlung
Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2019 (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) = a 2 b 2 Fakultät (Faktorielle) n! = 1 2 3 4 (n 1) n Intervalle
MehrDeterminante. Die Determinante. einer quadratischen Matrix A mit Spalten a j kann durch folgende Eigenschaften definiert werden.
Determinante Die Determinante det A = det(a 1,..., a n ) einer quadratischen Matrix A mit Spalten a j kann durch folgende Eigenschaften definiert werden. Multilineariät: det(..., αa j + βb j,...) = α det(...,
Mehrmit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"
Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"
MehrKapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24
Kapitel 4 Determinante Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Was ist eine Determinante? Wir wollen messen, ob n Vektoren im R n linear abhängig sind bzw. wie weit sie davon entfernt
Mehr3 Determinanten, Eigenwerte, Normalformen
Determinanten, Eigenwerte, Normalformen.1 Determinanten Beispiel. Betrachte folgendes Parallelogramm in der Ebene R 2 : y (a + c, b + d) (c, d) (a, b) x Man rechnet leicht nach, dass die Fläche F dieses
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrSeminar 1. Epsilontik. 1.1 Der ε-pseudotensor und einige seiner Eigenschaften
Seminar 1 1 Vektoralgebra, -Operator, Epsilontik 1.1 Der ε-pseudotensor und einige seiner Eigenschaften In in allen Bereichen der theoretischen Physik sehr gebräuchliches Hilfsmittel ist der ε-pseudotensor.
MehrHM II Tutorium 3. Lucas Kunz. 10. Mai 2016
HM II Tutorium 3 Lucas Kunz 10. Mai 2016 Inhaltsverzeichnis 1 Theorie für das Tutorium 2 1.1 Definition der Determinante.......................... 2 1.2 Errechnung von Determinanten........................
MehrEine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls
Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrWas fehlt derzeit im Internet? Sicherlich eine verständliche Einführung in Tensoren.
Was fehlt derzeit im Internet? Sicherlich eine verständliche Einführung in Tensoren. Mehr von PLARTHIN gibt's im Internet auf http://plarthin.wordpress.com Literatur: - deutsche Wikipedia - Spacetime and
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
Mehra 1 a 1 A = a n . det = λ det a i
49 Determinanten Für gegebene Vektoren a 1,,a n K n, betrachte die Matrix deren Zeilenvektoren a 1,,a n sind, also A = Ab sofort benutzen wir diese bequeme Schreibweise Definition Sei M : K n K }{{ n K
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrOrientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops
15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den
MehrDiagonalisierbarkeit symmetrischer Matrizen
¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrPraktikum Einführung in die Mathematik 1 WS 2010/2011 Blatt 2 Lösungen
Praktikum Einführung in die Mathematik 1 WS 2010/2011 Blatt 2 Lösungen 27. bis 29. Oktober 2010 (1) Lösung von Aufgabe (1) : ad (a) : Die Aussage 2n + 1 < 2 n wird durch Induktion über n für alle n gezeigt.
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
MehrKlausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung
Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung Prof Dr-Ing Ch Tsakmakis Dipl-Ing J Frischmann FB 13, FG Kontinuumsmechanik Aufgabe 1 (Klausuraufgabe) Seien drei Vektoren u, v, w
MehrIm Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.
Konvex, Konkav, Wendepunkt: Sei f : D R eine Funktion und sei I D ein Intervall. Gilt für alle x 1,x 2 I f ( x1 +x ) 2 2 f(x 1)+f(x 2 ), 2 dann heißt f konvex (linksgekrümmt) in I. Gilt für alle x 1,x
Mehrzu beweisen, kann man sich daher auf einen speziellen, möglichst einfach strukturierten Raum
9 Tensoren Im Teil I haben wir die wesentlichen Eigenschaften des physikalischen Raumes mit den Mitteln der linearen Algebra beschrieben. Die Orte im Raum haben wir mit den Punkten eines dreidimensionalen,
Mehr= 9 10 k = 10
2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund
MehrAllgemeine Mechanik Musterlo sung 10.
Allgemeine Mechanik Musterlo sung 0. U bung. HS 03 Prof. R. Renner Kanonische Transformation Gegeben sei die Hamiltonfunktion des harmonischen Oszillators H(q, p) p + q. m. Berechne die Bewegungsgleichung
Mehr2.3.4 Drehungen in drei Dimensionen
2.3.4 Drehungen in drei Dimensionen Wir verallgemeinern die bisherigen Betrachtungen nun auf den dreidimensionalen Fall. Für Drehungen des Koordinatensystems um die Koordinatenachsen ergibt sich 1 x 1
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
MehrZusammenfassung zum Thema Vektor- und Matrizenrechnung
Zusammenfassung zum Thema Vektor- und Matrizenrechnung Mathematischer Vorkurs für Physiker und Naturwissenschaftler WS 2014/2015 Grundbegriffe der Linearen Algebra Viele physikalische Größen (Geschwindigkeit,
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrLösung 10 Klassische Theoretische Physik I WS 15/16
Karlsruher Institut für Technologie Institut für theoretische Festkörperphysik www.tfp.kit.edu ösung Klassische Theoretische Physik I WS 5/6 Prof. Dr. G. Schön Punkte Sebastian Zanker, Daniel endler Besprechung
Mehr5.2 Rechnen mit Matrizen
52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 95 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
MehrKlassische Theoretische Physik I WS 2013/ Kronecker und Levi-Civita Symbole ( = 50 Punkte)
Karlsruher Institut für Technologie www.tkm.kit.edu/lehre/ Klassische Theoretische Physik I WS 2013/2014 Prof. Dr. J. Schmalian Blatt 4 Dr. P. P. Orth Abgabe und Besprechung 22.11.2013 1. Kronecker und
MehrMathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 9 20. Mai 2010 Kapitel 9. Matrizen und Determinanten Der Begriff der Matrix Die transponierte Matrix Definition 84. Unter einer (reellen) m n-matrix
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
MehrAnalysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit
A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in
MehrNomenklatur. Frank Essenberger FU Berlin. 20. September
Nomenklatur Frank Essenberger FU Berlin 20. September 2006 Inhaltsverzeichnis Vektorrechnung. Vektoren x.............................. 2.2 Matrixprodukt x M........................ 2.3 Inneres Produkt
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
Mehr1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
MehrVektorräume und Rang einer Matrix
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung
MehrIn diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
Mehr(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.
L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors
Mehr3. Übungsblatt zur Lineare Algebra I für Physiker
Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte
Mehr5.2 Rechnen mit Matrizen
52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
MehrDrehung. Die orthogonale n n-matrix 1 0. c s. Zeile j. s c
Drehung Die orthogonale n n-matrix Q i,j... Zeile i c s... Zeile j s c... mit c = cos ϕ und s = sin ϕ beschreibt eine Drehung um den Winkel ϕ in der x i x j -Ebene des R n. Drehung - Drehung Die orthogonale
MehrMathematische Grundlagen der Tensoralgebra und Tensoranalysis
Kapitel 2 Mathematische Grundlagen der Tensoralgebra und Tensoranalysis Zusammenfassung Die in der Kontinuumsmechanik betrachteten Größen sind Skalare, Vektoren und Tensoren, oder allgemeiner Tensoren
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrLösungshinweise zu den Hausaufgaben:
S. Hagh Shenas Noshari, 9. Gruppenübung zur Vorlesung S. Nitsche, C. Rösinger, A. Thumm, D. Zimmermann Höhere Mathematik Wintersemester 8/9 M. Stroppel Lösungshinweise zu den Hausaufgaben: Aufgabe H 33.
Mehr, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.
154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =
Mehr1 Lineare Gleichungssysteme und Matrizen
1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe
MehrFB 13, FG Kontinuumsmechanik Dipl.-Ing. J. FRISCHMANN
Klausur Tensorrechnung Wintersemester 015/16 Prof Dr-Ing C TSAKMAKIS FB 13, FG Kontinuumsmechak Dipl-Ing J FRISCHMANN 0704016 Name, Vorname: Studiengang: Matrikel-Nr: Bearbeitungshinweise: Benutzen Sie
MehrD-MAVT Lineare Algebra I HS 2018 Prof. Dr. N. Hungerbühler. Lösungen = A 4 3 6
D-MAVT Lineare Algebra I HS 28 Prof. Dr. N. Hungerbühler Lösungen. Gegeben seien die Matrizen A := ( 2 3 3 ), B := Welche der folgenden Aussagen sind richtig? (a) (AB) T = A T B T. 5 3 2 6 Die Formel (AB)
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
Mehr2.2 Kollineare und koplanare Vektoren
. Kollineare und koplanare Vektoren Wie wir schon gelernt haben, können wir einen Vektor durch Multiplikation mit einem Skalar verlängern oder verkürzen. In Abbildung 9 haben u und v die gleiche Richtung,
MehrÜbungsblatt Wiederholung: Vektoralgebra, Nabla-Operator, Integralsätze.
Übungsblatt 01 http://www.fluid.tuwien.ac.at/302.043 Wiederholung: Vektoralgebra, Nabla-Operator, Integralsätze. Im Folgenden stehen normal gedruckte Buchstaben ρ (x) für skalare Funktion die den R 3 nach
Mehr1 Polynome III: Analysis
1 Polynome III: Analysis Definition: Eine Eigenschaft A(x) gilt nahe bei a R, falls es ein δ > 0 gibt mit A(x) gilt für alle x (a δ, a + δ)\{a} =: U δ (a) Beispiele: x 2 5 nahe bei 0 (richtig). Allgemeiner:
MehrViele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung
Kapitel 3 Lineare Abbildungen Lineare Abbildungen sind eine natürliche Klasse von Abbildungen zwischen zwei Vektorräumen, denn sie vertragen sich per definitionem mit der Struktur linearer Räume Viele
Mehr5 Determinante, Spatprodukt, Vektorprodukt, inverse Matrix
5 Determinante, Spatprodukt, Vektorprodukt, inverse Matrix Jörn Loviscach Versionsstand: 20. März 2012, 16:02 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu:
MehrZusammenfassung und Beispiellösungen. zur Linearen Algebra
Zusammenfassung und Beispiellösungen zur Linearen Algebra Inhaltsverzeichnis TI Taschenrechner Funktionen für Matrizen... n*m Matrix... Diagonal und Dreiecksmatrix... Transponierte der Matrix A (AT)...
MehrMatrizen: Grundbegriffe. 1-E Ma 1 Lubov Vassilevskaya
Matrizen: Grundbegriffe -E Ma Lubov Vassilevskaya Lineares Gleichungssystem Abb. : Der Schnittpunkt P der beiden Geraden ist die graphische Lösung des linearen Gleichungssystem g : y = x, g 2 : y = 3 x,
MehrMLAN1 1 MATRIZEN 1 0 = A T =
MLAN1 1 MATRIZEN 1 1 Matrizen Eine m n Matrix ein rechteckiges Zahlenschema a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n a m1 a m2 a m3 amn mit m Zeilen und n Spalten bestehend aus m n Zahlen Die Matrixelemente
MehrTensoranalysis Mai 2010
Tensoranalysis Mai 2010 Einführung Der Tensor ist ein mathematisches Objekt aus der Algebra und Differentialgeometrie. Der Begriff wurde ursprünglich in der Physik eingeführt und später mathematisch präzisiert.
MehrMathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten
Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten www.math.ethz.ch/education/bachelor/lectures/hs2014/other/mathematik1 BIOL Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
MehrMathematische Probleme, SS 2019 Donnerstag $Id: dreieck.tex,v /04/12 17:03:16 hk Exp $
$Id: dreieck.tex,v 1.53 2019/04/12 17:03:16 hk Exp $ 1 Dreiecke 1.1 Rechtwinklige Dreiecke Wir beschäftigen uns gerade mit den primitiven pythagoräischen Tripeln. Haben wir ein solches Tripel, also teilerfremde
Mehr1 Analytische Geometrie und Grundlagen
$Id: vektor.tex,v 1.44 2018/05/17 14:11:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe Wir untersuchen gerade die Spiegelung an einer Hyperebene h R d. Ist ein
MehrEinführung in die theoretische Physik 1
Einführung in die theoretische Physik 1 Prof. Dr. L. Mathey Dienstag 15:45 16:45 und Donnerstag 10:45 12:00 Beginn: 23.10.12 Jungius 9, Hörs 2 1 Organisatorisches Vorlesung am 1.11.: wird dankenswerterweise
MehrMatrixelemente von Tensoroperatoren und die Auswahlregeln
Vorlesung 3 Matrixelemente von Tensoroperatoren und die Auswahlregeln In der Quantenmechanik müssen wir ab und zu die Matrixelemente von verschiedenen Operatoren berechnen. Von spezieller Bedeutung sind
MehrVektoren und Matrizen
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN. Invertierung von Matrizen und Multilinearformen
TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Prof Dr Friedrich Roesler Ralf Franken, PhD Max Lein Lineare Algebra WS 2006/07 en Blatt 3 2902007 Invertierung von Matrizen und Multilinearformen Zentralübungsaufgaben
MehrMathematik für Anwender I
Prof Dr H Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 11 Rang von Matrizen Definition 111 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von
MehrMengen und Relationen
KAPITEL 1 Mengen und Relationen 1.1. Mengenlehre Georg Cantor (3.3.1845 6.1.1918: Cantor ist der Vater der modernen Mengenlehre, er definierte 1895: DEFINITION 1.1.1. Unter einer Menge verstehen wir jede
Mehr5. Krümmung Der Riemann sche Krümmungstensor
5 Krümmung 51 Der Riemann sche Krümmungstensor Gegeben sei eine Riemann sche Mannigfaltigkeit (M,, ) mit Levi-Civita-Zusammenhang D Der Riemann sche Krümmungstensor von M bezüglich D ist die Abbildung
Mehr6 Determinanten Pink: Lineare Algebra HS 2014 Seite 66
6 Determinanten Pink: Lineare Algebra HS 2014 Seite 66 6 Determinanten 6.1 Symmetrische Gruppe Definition: Eine bijektive Abbildung von einer Menge X auf sich selbst heisst eine Permutation von X. Satz-Definition:
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrL7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert
L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors
MehrDiplom VP Informatik / Numerik 2. September 2002
Diplom VP Informatik / Numerik. September 00 Aufgabe Gegeben sei das lineare Gleichungssystem A x = b mit 0 4 0 0 0 0 A = 4 0 0 0 0 0 0 0 0 und b = 4 4 8 5. Punkte a Berechnen Sie die Cholesky Zerlegung
Mehr1.2 Das kartesische Koordinatensystem
Kapitel 1 Vektoralgebra 1.1 Einführung Am ersten Kapitel widmen wir uns den Grundlagen der Vektoralgebra, wobei wir speziell auf die Definitionen von Skalaren und Vektoren eingehen und Produkte zwischen
Mehr6.2 Rechnen mit Matrizen
62 Rechnen mit Matrizen 62 Rechnen mit Matrizen 103 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
MehrKapitel 15 Lineare Gleichungssysteme
Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem
MehrMathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.2 Determinanten
Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.2 Determinanten Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 44 8. Lineare Algebra: 2. Determinanten Ein einführendes
MehrDas innere Produkt von zwei Vektoren in V entspricht dem standard Skalarprodukt ihrer Komponenten bezüglich einer Orthonormalbasis von V.
L5.6 Orthogonale und unitäre Matrizen (invertierbare Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen) Reelles inneres Produkt in -Vektorraum [siehe L3.1b]: 'reeller Vektorraum' (i)
Mehr3.9 Elementarmatrizen
90 Kapitel III: Vektorräume und Lineare Abbildungen 3.9 Elementarmatrizen Definition 9.1 Unter einer Elementarmatrix verstehen wir eine Matrix die aus einer n n-einheitsmatrix E n durch eine einzige elementare
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Mehr1 Mathematische Hilfsmittel
Mathematische Hilfsmittel. Vektoranalysis Wiederholung Vektor: Länge und Richtung Vektoraddition: A + B = B + A (A + B) + C = A + (B + C) kartesische Koordinaten: B A + B = i (a i + b i )e i A+B Multiplikation
Mehr