Lineare Algebra für Physiker 11. Übungsblatt

Ähnliche Dokumente
klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Aufgabe 1. Sei A Mat(n n, R) mit Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A + 3E n ).

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Ausgewählte Aufgaben zum Grundbereich des Staatsexamens in Mathematik. Lineare Algebra. zusammengestellt von

Lineare Algebra - alles was man wissen muß

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

A Matrix-Algebra. A.1 Definition und elementare Operationen

11 Normalformen von Matrizen

6 Symmetrische Matrizen und quadratische Formen

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Musterlösungen zur Linearen Algebra II Blatt 5

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lösungsvorschläge zu ausgewählten Übungsaufgaben aus Storch/Wiebe: Lehrbuch der Mathematik Band 2, 2.Aufl. (Version 2010), Kapitel 5

Mathematik III für Ingenieure

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Numerische Behandlung des Eigenwertproblems

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Grundlagen der Mathematik II

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

Eigenwerte und Eigenvektoren von Matrizen

GNS-Konstruktion und normale Zustände. 1 Rückblick. 2 Beispiel für einen Typ-II 1 -Faktor

Quantenautomaten und das Cut-Point-Theorem für beschränkte erkennbare Potenzreihen

Lineare Algebra und analytische Geometrie II (Unterrichtsfach)

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

11. Primfaktorzerlegungen

Lösungen zum 3. Aufgabenblatt

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Übungsaufgaben LAAG I. für Lehramtsstudenten GS, MS, BS

Berechnung von Eigenwerten und Eigenvektoren

TECHNISCHE UNIVERSITÄT MÜNCHEN. Abzählbarkeit, Injektivität, Sürjektivität und Bijektivität

Mathematischer Vorkurs für Physiker WS 2009/10

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

2 Die Darstellung linearer Abbildungen durch Matrizen

2.1 Codes: einige Grundbegriffe

Lineare Algebra für Informatiker TUM Sommersemester 2011 Dozent: Christian Pötzsche

4. Übungsblatt Matrikelnr.:

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Definition 27 Affiner Raum über Vektorraum V

Orthogonale Funktionenräume

Galerkin-Diskretisierung von Eigenwertproblemen für partielle Differentialgleichungen

Satz 25 A sei eine (n n)-matrix über K

Grundbegriffe der Informatik

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Beispiel zur Lösung eines Gleichungssystems : 6 y + z = x + 3 y 3 z = x 3 y =

Hilbertraum-Methoden

Statistische Methoden

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

ax 2 + bx + c = 0, (4.1)

Zur Numerik großdimensionaler Eigenwertprobleme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach Ilmenau

Gleichungen - Aufgabenstellung und Lösungsstrategien

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität

Invariantentheorie. Vorlesung 5. Invariantenringe zu Untergruppen

Ergänzungen zur Analysis I

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Aufgaben des MSG-Zirkels 10b Schuljahr 2007/2008

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Frohe Weihnachten und ein gutes neues Jahr!

Bestimmung einer ersten

Zusatztutorium,

Elemente der Analysis II

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe

Leitfaden Lineare Algebra: Determinanten

II. Ringe und Moduln für etwas Fortgeschrittene

Wolfgang Kohn Riza Öztürk. Mathematik für Ökonomen. Ökonomische Anwendungen der linearen. Algebra und Analysis mit Scilab

Lineare Gleichungssysteme

Einführung in die Algebra

Modern Methods in Nonlinear Optimization

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: Weitere Informationen oder Bestellungen unter

Fakultät für Mathematik und Informatik. Seminar über angewandte Analysis. Sommersemester Der Kreissatz von Gerschgorin

Vorlesung bzw. 23. Januar Determinanten 1. Cramersche Regel

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek KDD Übung

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

Vorlesung. Komplexe Zahlen

Analysis I für Studierende der Ingenieurwissenschaften

Serie 13: Online Test

Technische Universität Berlin Institut für Mathematik. Bachelorarbeit im Studiengang Technomathematik

Also kann nur A ist roter Südler und B ist grüner Nordler gelten.

DHBW Karlsruhe, Vorlesung Programmieren, Klassen (2)

Einführung in die Funktionalanalysis

Gleichungen Aufgaben und Lösungen

Hauptkomponentenanalyse PCA

Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung

Über die Entscheidbarkeit gewisser Prädikate in der Theorie der C -Algebren

2 Algebraische Grundstrukturen

Definition und Eigenschaften Finiter Elemente

Einführung in die Tensorrechnung

Lineare Algebra und Computer Grafik

Minimale Darstellungen, Kommutator- und Fixräume, projektive Geometrie

Mathematik 1. Lösungsvorschläge zum 2. Übungsblatt

Siegfried Bosch. Lineare Algebra. Vierte, überarbeitete Auflage

Computer Vision SS Skript

Transkript:

Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche der folgenden Aussagen ist richtig? Symmetrische Matrizen sind diagonalisierbar. Symmetrische Matrizen sind normal. Reelle symmetrische Matrizen sind normal. Selbstadjungierte Matrizen sind diagonalisierbar. Orthogonale Matrizen sind unitär. Unitäre Matrizen sind orthogonal. Das Produkt symmetrischer Matrizen ist symmetrisch. Hermitesche Matrizen sind selbstadjungiert. Selbstadjungierte Matrizen sind hermitesch. Es gibt normale Matrizen, die nicht diagonalisierbar sind. (b) Entscheiden Sie bei den folgenden Matrizen, ob sie symmetrisch, unitär, orthogonal, hermitesch, selbstadjungiert, normal oder diagonalisierbar sind! 1 0 M 1 = 0 1 0 1 M = 1 0 M = 0 0 0 0 M 6 = 1 1 i i 1 1 1 M = 0 1 1 i M 7 = i 1 M 4 = 1 4 4 0 i M 8 = i 0 (a) Die richtigen Antworten sind: Symmetrische Matrizen sind diagonalisierbar. Symmetrische Matrizen sind normal. Reelle symmetrische Matrizen sind normal. Selbstadjungierte Matrizen sind diagonalisierbar. Orthogonale Matrizen sind unitär. Unitäre Matrizen sind orthogonal. Das Produkt symmetrischer Matrizen ist symmetrisch. Hermitesche Matrizen sind selbstadjungiert. Selbstadjungierte Matrizen sind hermitesch. Es gibt normale Matrizen, die nicht diagonalisierbar sind. (b) Die Klassifikation der Matrizen entspricht den Angaben der folgenden Tabelle: 1

Eigenschaft Matrizen symmetrisch M 1, M, M 6, M 8 unitär M 1, M 4, M, M 6, M 8 orthogonal M 1, M 4, M hermitesch = selbstadjungiert M 1, M, M 7 normal M 1, M, M 4, M, M 6, M 7, M 8 diagonalisierbar M 1, M, M 4, M, M 6, M 7, M 8 Die ersten vier Eigenschaften lesen wir direkt aus den Matrizen ab. Da unitäre und hermitesche Matrizen normal sind, wissen wir bei allen Matrizen außer M, dass sie normal und somit diagonalisierbar sind. Umgekehrt rechnet man leicht nach, dass M nur einen eindimensionalen Eigenraum zum einzigen Eigenwert 1 hat. Folglich ist M nicht diagonalisierbar und somit auch nicht normal. Aufgabe G (Adjungierter Operator) Es sei A: V V ein Endomorphismus des unitären Vektorraums V. Zeigen Sie, dass Kern(A ) = Bild(A). Es gilt x Kern(A ) A x = 0 A x, y = 0 für alle y V x, Ay = 0 für alle y V x Bild(A). Aufgabe G (Dualraum) Für einen -Vektorraum V bezeichnet V = Hom(V, ) die Menge der linearen Abbildungen V. Bezüglich der folgenden Addition und skalaren Multiplikation hat V selbst die Struktur eines -Vektorraums: +: V V V, (ϕ, ψ) ϕ + ψ mit (ϕ + ψ)(w) = ϕ(w) + ψ(w), : V V, (λ, ϕ) λϕ mit (λϕ)(w) = λϕ(w). Der so konstruierte Vektorraum V heißt Dualraum von V. Wir nehmen im Folgenden an, dass V endlichdimensional und mit einem Skalarprodukt ausgestattet ist, und definieren die Abbildung Beweisen oder widerlegen Sie, (a) dass ϕ eine lineare Abbildung ist, (b) dass ϕ injektiv ist und (c) dass ϕ surjektiv ist. ϕ : V V, v ϕ v mit ϕ v (w) = v, w. Was sagen Ihre Resultate über das Verhältnis von V und V aus? (a) Für v, v V und λ gilt ϕ(v + λv ) = ϕ(v ) + λϕ(v ), denn für alle w V ist ϕ v +λv (w) = v + λv, w = v, w + λ v, w = ϕ v (w) + λϕ v (w) = ϕ v + λϕ v (w). Also ist ϕ für = linear, für = jedoch nur antilinear. In beiden Fällen ist ϕ zumindest additiv. (b) Wir nehmen an, dass ϕ(v ) = ϕ(v ). Dann gilt für alle w V 0 = ϕ v (w) ϕ v (w) = v, w v, w = v v, w. Also steht v v senkrecht auf allen Vektoren aus V und muss somit verschwinden. (c) Wir konstruieren zu gegebenem ψ V einen Vektor v V mit ϕ(v ) = ψ. Konkret setzen wir v = n i=1 ψ(v i)v i, wobei v 1,..., v n eine Orthonormalbasis von V bezeichnet. Dann gilt für j = 1,..., n ϕ v (v j ) = v, v j = n i=1 ψ v i vi, v j = n ψ n v i vi, v j = ψ v i δi j = ψ(v j ). i=1 Die linearen Abbildungen ϕ v und ψ nehmen also auf den Basisvektoren v j jeweils die gleichen Werte an. Damit sind sie bereits gleich und es folgt wie gefordert ϕ(v ) = ψ. i=1

Insgesamt stellen wir fest, dass es eine kanonische antilineare Bijektion ϕ : V V, also eine stark strukturierte 1:1- Beziehung zwischen Vektoren in V und Vektoren in V gibt. Im reellen Fall sind V und V sogar kanonisch isomorph. Aufgabe G4 (Verallgemeinerungen selbstadjungierter Matrizen) Für λ sei (a) Bestimmen Sie alle A V (λ, ) für λ 1. V (λ, ) = A M n () : A = λa. (b) Zeigen Sie: Für λ mit λ = 1 gibt es ein z = z(λ) mit V (λ, ) = z V (1, ) = {z A : A = A}. (c) Bestimmen Sie ein mögliches z = z( 1). (a) Aus A = λa folgt, dass A normal ist. Somit gibt es nach dem Hauptsatz über normale Matrizen eine Orthonormalbasis v 1,..., v n aus Eigenvektoren zu den Eigenwerten λ 1,..., λ n. Ist ein Eigenwert ungleich 0, etwa λ 1 0, so folgt λλ 1 v 1 = λav 1 = A v 1 = λ 1 v 1, also λ = λ 1 /λ 1 und insbesondere λ = 1. Für λ = 1 müssen also alle Eigenwerte von A gleich 0 sein, d. h. A = 0. (b) Für λ = e iϕ wählen wir z = z(λ) = e iϕ/. (Beachten Sie, dass es für gegebenes λ mehrere Wahlmöglichkeiten für ϕ gibt und dass somit auch z(λ) nicht eindeutig festgelegt ist.) Ist nun A V (1, ), so gilt (za) = e iϕ/ A = e iϕ/ A = e iϕ (za) = λ(za). Also ist z V (1, ) V (λ, ). Umgekehrt erhalten wir für B V (λ, ) (z 1 B) = e iϕ/ B = e iϕ/ λb = e iϕ/ B = z 1 B. Es gilt also auch z V (1, ) V (λ, ) und somit die geforderte Gleichheit. (c) Mit der Formel aus (b) erhalten wir z( 1) = z e ±iπ = e π/ = i. Hausübung Aufgabe H1 (Hauptsatz über reelle symmetrische Matrizen) (a) Zeigen Sie den Hauptsatz über reelle symmetrische Matrizen direkt. Gehen Sie dabei wie folgt vor: (b) Sei (a) i. Zeigen Sie, dass jede reelle symmetrische Matrix A einen reellen Eigenwert besitzt. (6 Punkte) ii. Zeigen Sie: Ist U n ein unter A invarianter Unterraum, dann ist auch U ein A-invarianter Unterraum. iii. Zeigen Sie induktiv, dass es eine Orthonormalbasis aus Eigenvektoren von A in n gibt und folgern Sie den Hauptsatz. 1 1 A = 1 1. 1 1 Finden Sie eine Diagonalmatrix D und eine orthogonale Matrix S, sodass S T AS = D gilt. Geben Sie beide Matrizen konkret an. i. Das charakteristische Polynom von A besitzt nach dem Hauptsatz der Algebra eine komplexe Nullstelle. Andererseits sind alle Eigenwerte von A reell, denn es gilt bezüglich des unitären Standardskalarprodukts Av = λv = λ v, v = v, Av A=AT =A = Av, v = λ v, v v,v >0 = λ = λ = λ. Der Eigenwert, der nach dem Hauptsatz der Algebra existiert, ist also ebenfalls reell.

ii. Sei v U, also u, v = 0 für alle u U. Dann folgt u, Av A=AT = }{{} Au U, }{{} v = 0 für alle u U, U da U invariant unter A ist. Folglich ist Av U und wir erhalten AU U, was zu zeigen war. iii. Induktionsanfang: Nach i. hat A einen reellen Eigenwert λ mit zugehörigem normierten Eigenvektor v 1. Induktionsannahme: Es gibt ein Orthonormalsystem (v 1,..., v k ) aus Eigenvektoren von A, wobei 1 k < n. Induktionsschritt: Wir bezeichnen mit U = span{v 1,..., v k } das lineare Erzeugnis des Orthonormalsystems aus der Induktionsannahme. Es ist offensichtlich invariant unter A und somit ist nach ii. auch U invariant unter A. Wir können die lineare Abbildung x Ax also auf U einschränken und erhalten einen Endomorphismus ϕ : U U. Dieser ist selbstadjungiert, denn es gilt ϕ(v ), w = Av, w = v, Aw = v, ϕ(w) = ϕ (v ), w für alle v, w U. Die Matrix von ϕ bezüglich einer beliebigen Basis von U ist daher nicht nur reell, sondern auch symmetrisch. Sie hat also nach i. einen reellen Eigenwert mit zugehörigem normierten Eigenvektor v k+1 U. Dieser ist offensichtlich der gesuchte Eigenvektor von A. Dieses Verfahren setzen wir fort, bis wir n normierte Eigenvektoren gefunden haben. Sie bilden eine Orthonormalbasis von n, bezüglich der A Diagonalgestalt hat. (b) Das charakteristische Polynom p A (t) = (t 1) (t 4) hat die Nullstellen 1 (mit Vielfachheit ) und 4. Wir bestimmen jeweils linear unabhängige Eigenvektoren und normieren diese. Beispielsweise erhalten wir v 1 = 1 1 1 und v = 1 1 1 zum EW 1, v = 1 1 1 zum EW 4. 0 6 1 Mit diesen Vektoren ergibt sich 1 S = 1 0 1 6 0, S T = 1 1 0 0 1 1 6, D = 0 1 0. 0 0 4 Aufgabe H (Adjungierte der Ableitung) (6 Punkte) Sei = a x + a 1 x + a 0 : a i der Vektorraum der rellen Polynome von Grad mit dem Skalarprodukt p, q = 1 1 p(x)q(x) dx. Berechnen Sie die Adjungierte ϕ des Ableitungsoperators ϕ(p) = p. (Variante 1) Wir konstruieren zunächst eine Orthonormalbasis ON von. Hierfür wenden wir das Gram- Schmidt-Verfahren auf die Basis = (v 1, v, v ) mit den Vektoren v 1 = 1, v = x, v = x an: ũ 1 = v 1 = 1 ũ = v u 1, v u 1 = v 0u 1 = x ũ = v u 1, v u 1 u, v u = v = u 1 = ũ1 ũ 1 = 1, = u = ũ u = u 1 0u = x 1 = u = ũ u = Also ist ON = (u 1, u, u ). Die Bilder der Basisvektoren unter ϕ sind nun ϕ(u 1 ) = 0, ϕ(u ) = = u 1, ϕ(u ) = x, x 1. x = 1u 4

und die Matrix von ϕ bezüglich ON ist somit gegeben durch 0 0 A = 0 0 1. 0 0 0 Da wir ON als Orthonormalbasis konstruiert haben, ist A 0 0 0 = 0 0 0 1 0 die Matrix von ϕ bezüglich ON. Um daraus die Matrix von ϕ bezüglich zu erhalten, benötigen wir noch die Transformationsmatriz 1 0 1 S = id ON = 0 0 = 1 0 0 4 0 0 0 0 und ihre Inverse S 1 = ON id = 1 1 0 0 1 0 0. Somit erhalten wir schließlich die Matrix von ϕ bezüglich als SA S 1 = 1 0 0 0 0 0 1 0 1 4 0 0 0 0 0 0 0 1 0 1 0 0 0 = 0 1. 0 0 Es gilt also ϕ a + bx + c x = 1 b + (a + c)x + bx. (Variante ) Bezüglich der Basis = {1, x, x } hat ϕ die Matrix 0 1 0 D = 0 0, 0 0 0 denn ϕ(1) = 0, ϕ(x) = 1 und ϕ(x ) = x. Das Skalarprodukt können wir durch p, q = [p] T A [q] mit Hilfe der Matrix A = 1 0 0 0 1 0 beschreiben. Um die Einträge von A zu bestimmen, haben wir hierbei sukzessive die Skalarprodukte 1, 1, 1, X,..., X, X berechnet. Gesucht ist nun die Adjungierte ϕ von ϕ mit Matrixdarstellung D bezüglich. Es gilt für alle p, q [p] T DT A[q] = D[p] T A[q] = ϕ(p), q = p, ϕ (q) = [p] T AD [q], und somit D T A = AD, bzw. D = A 1 D T A = 0 0 0 0 1 0 0 4 0 1 0 0 0 0 = 1 0 0. 8 0 1 0 0 1 0 0 1 0 Folglich ist die Adjungierte ϕ gegeben durch ϕ a x + a 1 x + a 0 = 1 a 1 x + a + a 0 x a 1. 1

Aufgabe H (Simultane Diagonalisierung) (6 Punkte) Wir betrachten einen endlichdimensionalen unitären Vektorraum V mit normalen Endomorphismen ϕ 1,..., ϕ m. Die ϕ i kommutieren paarweise, wenn ϕ i ϕ j = ϕ j ϕ i für alle i, j gilt. Die ϕ i sind simultan diagonalisierbar, falls eine Basis aus simultanen Eigenvektoren existiert. Das bedeutet, dass alle ϕ i bezüglich Diagonalgestalt haben, bzw. dass jedes Element von Eigenvektor von jedem ϕ i ist. Zeigen Sie, dass die ϕ i genau dann paarweise kommutieren, wenn sie simultan diagonalisierbar sind. Tipp: Gehen Sie bei der Hinrichtung induktiv vor. Die folgende Aussage (Übung, Aufgabe G1b) ist dabei wichtig: Kommutieren ϕ i und ϕ j, so ist jeder Eigenraum V von ϕ i invariant unter ϕ j, d. h. ϕ j (V ) V. ) Wir nehmen an, dass die ϕ i paarweise kommutieren, und zeigen die simultane Diagonalisierbarkeit durch Induktion nach m. Für m = 0 ist es ausreichend, eine beliebige Basis von V zu wählen. Wir nehmen also an, dass m paarweise kommutierende Endomorphismen stets auch simultan diagonalisierbar sind. Daraus wollen wir folgern, dass auch m + 1 paarweise kommutierende Endomorphismen ϕ 1,..., ϕ m+1 simultan diagonalisierbar sind. Zunächst stellen wir fest, dass ϕ m+1 nach dem Hauptsatz über normale Endomorphismen diagonalisierbar ist. Es gibt also paarweise verschiedene Eigenwerte λ 1,..., λ k von ϕ m+1, so dass V in die direkte Summe der zugehörigen Eigenräume V j, j = 1,..., k zerfällt. Folglich genügt es zu zeigen, dass jedes V j eine Basis aus simultanen Eigenvektoren hat. Wir werden dies o. B. d. A. für j = 1 tun. Nach dem Tipp ist V 1 invariant unter allen ϕ i. Diese lassen sich also zu Endomorphismen ϕ i : V 1 V 1 einschränken. Nach der Induktionsannahme gibt daher eine Basis 1 von V 1, die aus simultanen Eigenvektoren von ϕ 1,..., ϕ m besteht. Da jedoch jeder Vektor in V 1 nach Definition auch Eigenvektor von ϕ m+1 ist, besteht 1 sogar aus simultanen Eigenvektoren von ϕ 1,..., ϕ m+1. ) Wir nehmen an, dass eine Basis von V ist, die aus simultanen Eigenvektoren der ϕ i besteht. Die Matrizen A i = [ϕ i ] sind dann allesamt diagonal; insbesondere kommutieren sie paarweise. Dies überträgt sich auch auf die Endomorphismen, denn es gilt [ϕ i ϕ j ] = A i A j = A j A i = [ϕ j ϕ i ]. Anmerkung: Es ist sehr leicht, bei der Hinrichtung sogar eine Orthonormalbasis aus simultanen Eigenvektoren zu konstruieren. Wer die Aufgabe noch etwas vertiefen möchte, sollte sich dies klar machen. 6