2.10 Skalarprodukte und euklidische Vektorräume
|
|
- Inge Tiedeman
- vor 6 Jahren
- Abrufe
Transkript
1 Lineare Algebra 26/7 c Rudolf Scharlau Skalarprodukte und euklidische Vektorräume Viele der in der Mathematik auftauchenden reellen Vektorräume tragen eine zusätzliche Struktur, nämlich ein sogenanntes Skalarprodukt, das je zwei Vektoren eine Zahl (eben ihr Produkt ) zuordnet. Ein R- Vektorraum mit einer solchen Zusatzstruktur heißt euklidischer Vektorraum. Skalarprodukte können zur Behandlung der euklidischen Geometrie in analytischer Darstellung benutzt werden, etwas darüber hinausgehend zur Längen- und Winkelmessung. Sie tauchen aber auch in vielen Bereichen der angewandten Mathematik auf (manchmal explizit, manchmal verdeckt). Zu erwähnen wäre hier die Approximation von Funktionen durch andere (einfachere) Funktionen in der numerischen Mathematik oder Funktionalanalysis, aber auch die Approximation von Daten aller Art. Sogar die aus der Statistik bekannten Korrelationskoeffizienten können als Skalarprodukte aufgefasst werden. Wir behandeln hier die Grundbegriffe der Theorie der euklidischen Vektorräume: symmetrische Bilinearform, Skalarprodukt, Orthogonalität von Vektoren, Orthogonalraum und orthogonales Komplement, orthogonale Projektion, Orthonormalbasen, Cauchy-Schwarz sche Ungleichung, Längen und Winkel, orthogonale Abbildungen und Matrizen. Skalarprodukte sind spezielle (nämlich positiv definite) symmetrische Bilinearformen über dem Körper R der reellen Zahlen. Allgemeine symmetrische Bilinearformen über R und allgemeiner über im Prinzip beliebigen Körpern werden in einem späteren Kapitel behandelt. Ebenso werden die orthogonalen Abbildungen noch einmal aufgegriffen. Definition 2.. Sei K ein Körper, V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung b : V V K mit folgenden Eigenschaften: b(v + v 2, w) = b(v, w) + (v 2, w) b(v, w + w 2 ) = b(v, w ) + b(v, w 2 ) b(αv, w) = αb(v, w) b(v, βw) = βb(v, w) für alle v, w, v, v 2, w, w 2 V, α, β K. Die Bilinearform heißt symmetrisch, wenn b(v, w) = b(w, v) für alle v, w V. Für K = R, allgemeiner K R, heißt b positiv definit, falls b(v, v) > für alle v V {}. Eine positiv definite, symmetrische Bilinearform heißt auch Skalarprodukt. Bemerkung 2..2 Es sei b : V V K eine Bilinearform. a) Für jedes festes v V ist die Abbildung x b(v, x), V K eine lineare Abbildung. Das gleich gilt für x b(x, v), V K. b) Es gilt b(v, ) = = b(, v) für alle v V. Teil a) ergibt sich unmittelbar aus der Definition, b) folgt aus a). Eine lineare Abbildung mit dem Grundkörper als Zielraum wird auch als lineare Funktion oder Linearform bezeichnet. Wir kommen in Kapitel 4. darauf zurück.
2 28 Lineare Algebra 26/7 c Rudolf Scharlau Speziell für Skalarprodukte ist auch die Schreibweise (v, w) v, w R üblich, d.h. man verzichtet auf einen Funktionsnamen wie b und schreibt stattdessen ggf., (mit Leerstellen statt der Argumente v, w der Abbildung). Definition 2..3 Ein euklidischer Vektorraum ist ein Objekt (V,, ), wobei V ein endlich-dimensionaler R-Vektorraum ist und, : V V R ein Skalarprodukt. Bevor wir zu Beispielen kommen, noch ein kleiner begrifflicher Exkurs. Definition 2..4 (Die Transponierte einer Matrix) a) Eine Matrix heißt symmetrisch,, wenn sie quadratisch ist, S K n n für ein n, und wenn a ij = a ji für alle i, j {,..., n} ist. b) Die Transponierte A t einer Matrix A K m n ist die Matrix (a ji ) Kn m, die durch a ji := a ij für alle i {,..., m} und j {,..., n} definiert wird. Die Zeilen von A t entsprechen also den Spalten von A, oder bildlich ausgedrückt: Die transponierte Matrix A t entsteht aus A durch Spiegeln an der Hauptdiagonalen, die aus den Diagonalelementen a ii gebildet wird. Eine Matrix S ist genau dann symmetrisch, wenn S = S t ist. In früheren Übungen ist die transponierte Matrix eventuell schon einmal bei der Berechnung einer Basis eines Spaltenraumes mittels des Gauß-Verfahrens vorgekommen. Dieses ist aber eine theoriefreie, rein rechentechnische Benutzung der Transponierten: Beim Rechnen mit der Hand arbeitet man gewohnheitsmäßig mit Zeilen(vektoren), nicht mit Spalten(vektoren). Erst in der Theorie der Bilinearformen sowie beim Begriff des Dualraums und der dualen Abbildung (Kapitel 4) bekommt die Transponierte eine eigenständige Bedeutung. Für den Augenblick halten wir noch fest: Bemerkung 2..5 a) Für beliebige Matrizen A K m n und B K n p gilt (AB) t = B t A t. b) Für jede Matrix A gilt rang(a) = rang(a t ). Teil a) ergibt sich durch einfaches Hinschauen aus den Definitionen, Teil b) folgt unmittelbar aus Satz (Zeilenrang gleich Spaltenrang). Beispiele Die auf R n R n durch x t y = n x i y i definierte Funktion (Zeile mal Spalte) ist ein Skalarprodukt, das sogenannte Standardskalarprodukt. 2. Für einen beliebigen Körper K ist die in definierte Funktion eine symmetrische Bilinearform auf K n. i= 3. Sei A K n n eine quadratische Matrix. Definiere b = b A : K n K n K durch b A ( x, y) = n x i a ij y j. i,j=
3 Lineare Algebra 26/7 c Rudolf Scharlau 29 Die so definierte Funktion ist eine Bilinearform auf K n. Dabei sind wie üblich x, y Spaltenvektoren. Unter Benutzung des transponierten Vektors x t, also des gleichen Vektors als Zeile geschrieben (das ist ein Spezialfall einer transponierten Matrix), kann man die rechte Seite der Definition schreiben als n x i a ij y j = x t A y. i,j= Hier ist x t A y ein zweifaches Matrizenprodukt, dessen Ergebnis eine -Matrix, also ein Zahl ist. 4. Für eine gegebene quadratische Matrix A ist die Bilinearform b A genau dann symmetrisch, wenn die Matrix A symmetrisch ist. Beweis als Übung. 5. Satz: Jede Bilinearform b auf K n ist von der Form b A für eine passende Matrix A. Zum Beweis von 5. definiert man a ij := b(e i, e j ). Bemerkung und Definition 2..7 Es sei (V,, ) ein euklidischer Vektorraum. a) Zwei Vektoren v, w V heißen orthogonal oder senkrecht zueinander, in Zeichen v w, falls v, w = ist. b) Für v V ist v := {x V x, v = } = {x V x v} ein Untervektorraum von V. Er heißt der der Orthogonalraum zu v. c) Für eine Teilmenge M V ist M := {x V v M : x, v = } ein Untervektorraum von V. Er heißt der Orthogonalraum zu M. Die Orthogonalitätsrelation auf V ist symmetrisch: Für alle v, w V gilt v w w v. Die weitere Untersuchung von Orthogonalräumen bereiten wir mit der folgenden allgemeinen Bemerkung vor: Definition und Bemerkung 2..8 Es sei V ein endlich-dimensionaler K-Vektorraum über einem beliebigen Körper K. a) Ein Unterraum H der Dimension dim H = dim V heißt Hyperebene in V. b) Wenn f : V K eine lineare Funktion ist, nicht die Nullfunktion, dann ist Kern f eine Hyperebene in V. c) Es sei (V,, ) ein euklidischer Vektorraum. Der Orthogonalraum v eines Vektors v ist eine Hyperebene. Beweis: Wegen dim Bild f = folgt Teil b) sofort aus der Dimensionsformel für lineare Abbildungen Satz Teil c) folgt aus b), weil v der Kern der linearen Abbildung x b(x, v), V R ist. Wegen b(v, v) ist dieses nicht die Nullabbildung. Wenn M ein Untervektorraum ist, muss man die Orthogonalitätsbedingung x, v = nicht für alle v M, sondern nur für die Vektoren eines Erzeugendensystems testen. Etwas anders gewendet gilt:
4 3 Lineare Algebra 26/7 c Rudolf Scharlau Bemerkung 2..9 a) Für jede Teilmenge M V gilt M = (Lin M). b) Wenn U ein Unterraum ist und u,..., u k eine Basis von U, so gilt U = u u 2 u k. Teil a) muss man nachprüfen, b) folgt sofort aus a). Bevor wir mit der letzten Bemerkung Orthogonalräume weiter untersuchen, noch eine generelle Feststellung über Schnitte mit einer Hyperebenen. Lemma 2.. Es sei V ein endlich-dimensionaler K-Vektorraum über einem beliebigen Körper, U ein Untervektorraum und H eine Hyperebene in V. Dann ist U H eine Hyperebene in U, also dim(u H) = dim U, oder es ist U H. Das folgt sofort aus der Dimensionsformel für Summe und Durchschnitt, denn es muss U + H = V oder U + H = H sein. Aus Bemerkung 2..9.b) folgt nun durch k-fache Anwendung des letzten Lemmas: Hilfssatz Es sei (V,, ) ein n-dimensionaler euklidischer Vektorraum und U ein Unterraum der Dimension k. Dann gilt für die Dimension des Orthogonalraumes dim U n k. Der Hilfssatz wird nur für kurze Zeit gebraucht, denn aus dem folgenden Satz geht hervor, dass in Wirklichkeit sogar Gleichheit gilt. Wir erinnern vorher noch an den Begriff der direkten Summe und des Komplementes aus Satz und Definition 2.. (Orthogonales Komplement) Es sei (V,, ) ein euklidischer Vektorraum und U V ein beliebiger Untervektorraum. Dann hat man eine Zerlegung als direkte Summe V = U U. Man spricht von einer orthogonalen (direkten) Summe von Untervektorräumen und nennt U auch das orthogonale Komplement zu U in V. Beweis: Da ein Skalarprodukt positiv definitit ist, ist U U = {}, denn für einen Vektor u in diesem Schnitt ist u, u =, also u =. Die Summe U + U ist also direkt, und nach dem Korollar sowie dem vorigen Hilfssatz ist dim(u U ) = dim U + dim U k + (n k) = n = dim V. Es muss also U U = V (und weiter dim U = n k) sein. Wir gehen für einen Augenblick zu beliebigen Direkte-Summen-Zerlegungen zurück, ohne Berücksichtigung eines Skalarproduktes. Wenn V = U W ist, dann gibt es zu jedem v V eindeutige Vektoren u U und w W so, dass v = u + w ist. Ausgehend von dieser Festellung überlegt man sich leicht: Bemerkung und Definition 2..2 Sei V ein K-Vektorraum, zerlegt als direkte Summe von zwei Untervektorräumen: V = U W. Dann ist die Abbildung V U, v = u + w u, wobei u U, w W sinnvoll definiert und linear. Diese Abbildung heißt die Projektion von V auf U mit Kern W. Definition 2..3 Es seien (V,, ) ein euklidischer Vektorraum und U V ein Untervektorraum. Dann heißt die Projektion von V auf U mit Kern U auch die orthogonale Projektion auf U. Bezeichnung: pr U : V U.
5 Lineare Algebra 26/7 c Rudolf Scharlau 3 Wir haben folgende direkte Beschreibung von pr U (ohne ausdrückliche Benutzung von 2..2): Bemerkung 2..4 Ein Vektor v ist genau dann die orthogonale Projektion pr U (v) von v auf U, wenn gilt: v U, v v U. Nächstes Ziel ist nun eine explizite Berechung der orthogonalen Projektion. Hierzu zunächst ein Begriff, der für euklidische Vektorräume von ganz allgemeinem Interesse ist. Definition 2..5 Es sei (V,, ) ein euklidischer Vektorraum. - Ein Vektorsystem v,..., v k von V heißt Orthogonalsystem, falls die v i paarweise orthogonal sind: v i, v j = für i j. Falls v,..., v k zusätzlich eine Basis ist, heißt diese Orthogonalbasis. - Ein Vektorsystem u,..., u k heißt Orthonormalsystem, falls die u i paarweise orthogonal sind und u i, u i =, für i =,..., k. Falls u,..., u k zusätzlich eine Basis ist, heißt diese Orthonormalbasis, kurz ON-Basis. Wenn man eine ON-Basis von U hat, kann man die orthogonale Projektion auf U direkt hinschreiben: Lemma 2..6 (Konstruktion der orthogonalen Projektion) Es seien (V,, ) ein euklidischer Vektorraum, U V ein Untervektorraum und u,..., u k eine Orthonormalbasis von U. Dann ist die orthogonale Projektion von V auf U gegeben durch pr U (v) = k v, u j u j. j= Beweis: Wenn wir die rechte Seite für den Moment v nennen, so ist zunächst einmal v U. Weiter rechnet man nach, dass v v orthogonal zu jedem u i ist. Nach 2..9 ist also v v U, und die Behauptung ergibt sich aus 2..4 Auf den ersten Blick nützt dieses Lemma nur etwas, wenn man eine ON- Basis von U bereits hat. Man kann aber durch sukzessive Anwendung der gleichen Formel eine ON-Basis (von U, ggf. von V ) auch berechnen. Dieses ist der Inhalt des folgenden Satzes (und seines Beweises): Satz 2..7 (Orthogonalisierung nach Gram-Schmidt) Es sei (V,, ) ein euklidischer Vektorraum und v,..., v n eine beliebige Basis von V. Dann gibt es eine Orthonormalbasis v,..., v n von V so, dass v i Rv + Rv Rv i für i =,..., n. Die v i sind bis auf das Vorzeichen eindeutig durch die v i (und deren Reihenfolge) bestimmt. Beweis: Man betrachtet die Kette von Unterräumen V i := Lin{v,..., v i }, für i =,..., n. Setze v := v / v, v (Normierung des Vektors v, siehe auch unten für weiteres hierzu). Wenn v,..., v i als ON-Basis von V i bereits gefunden sind, für ein i < n, bestimme zunächst ṽ i+ := v i+ pr Vi (v i+ ) gemäß 2..6 und normiere dann noch zu v i+ := ṽi+, ṽ i+ ṽi+. (Orthogonalisierung) (Normierung)
6 32 Lineare Algebra 26/7 c Rudolf Scharlau Die angesprochene Eindeutigkeit ist ebenfalls leicht zu sehen: im eindimensionalen orthogonalen Komplement von V i in V i+ gibt es nur zwei Vektoren w mit w, w =. In der Praxis führt das Normieren der Vektoren zu häufigem Wurzelziehen. Deswegen ist es gut, die folgende Variante der Formel aus Lemma 2..6 zur Hand zu haben, die lediglich voraussetzt, dass die u i eine Orthogonalbasis bilden: pr U (v) = k j= b(v, u j ) b(u j, u j )u j. (OP) Wir haben hier b(v, w) statt v, w geschrieben, um zu betonen dass ein beliebiges Skalarprodukt zugrundegelegt ist; auch im R n beschränkt sich die Gültigkeit der Formel (wie schon in Lemma 2..6) nicht auf das Standardskalarprodukt. Mit dieser Formel kann man das Gram-Schmidt- Verfahren etwas modifizieren, nämlich vollständig mit den Vektoren ṽ i (statt der v i ) durchführen. Man erhält ohne Wurzelziehen eine Orthogonalbasis, deren Vektoren in einem letzten, unabhängigen Schritt normiert werden können. Wir wenden dieses Vorgehen im folgenden Beispiel an. Beispiel 2..8 Wir betrachten den R 3 mit dem Standardskalarprodukt und wenden das modifizierte Gram-Schmidt-Verfahren auf folgende drei Vektoren an: Es ergibt sich: v =, v 2 =, v 3 =. ṽ = v ṽ 2 = v 2 v 2, v v, v v = 3 = /3 2/3 /3 ṽ 2, ṽ 2 = 2/3 ṽ 3 = v 3 v 3, v v, v v v 3, ṽ 2 ṽ 2, ṽ 2 ṽ2 = 3 + /3 2/3 /3 2/3 /3 = /2 /2 ṽ 3, ṽ 3 = /2 Abschließend führt man die Normierung durch:
7 Lineare Algebra 26/7 c Rudolf Scharlau 33 v = 3, v 2 = 6 2, v 3 = 2. Korollar 2..9 (Berechnung des orthogonalen Komplementes) Es sei (V,, ) ein euklidischer Vektorraum, U ein Untervektorraum. Wähle eine beliebige Basis v,..., v k von U, ergänze sie durch v k+,..., v n zu einer Basis von V. Es sei ṽ,..., ṽ n die hieraus nach Satz 2..7 berechnete Orthogonalbasis von V. Dann ist ṽ k+,..., ṽ n eine Basis von U. Wir stellen fest, dass dieses Korollar erneut die Dimensionsformel dim U + dim U = dim V, also den entscheidenden Teil von Satz 2.., beweist. Noch eine ergänzende Bemerkung zum Begriff der Orthonormalbasis: Um die lineare Unabhängigkeit muss man sich hier nicht kümmern, denn es gilt folgende generelle Bemerkung: a) Jedes Orthonormalsystem ist linear unab- Bemerkung 2..2 hängig. b) Wenn B = (u,..., u n ) eine Orthonormalbasis von V ist, dann ist die i-te Koordinate von v V bezüglich B gleich v, u i. Beweis: Sei u,..., u n ein Orthonormalsystem und v = n j= x ju j mit x j R. Dann ist n n v, u i = x j u j, u i = x j u j, u i = x i j= für jedes i =,..., n. Wenn v = ist, ergibt sich also x i = für alle i und somit die lineare Unabhängigkeit von B. Die Behauptung unter b) ist ebenfalls bewiesen. Wir kommen nun zu den metrischen Begriffen, die sich aus einem Skalarprodukt ableiten lassen: Länge eines Vektors (auch Norm genannt) bzw. Abstand zweier Punkte im Vektorraum, sowie der Winkel zwischen zwei Vektoren. Definition 2..2 Es sei (V,, ) ein euklidischer Vektorraum. - Für v V heißt die Zahl v := v, v R die Länge oder Norm von v. Ein Vektor der Länge heißt normiert oder Einheitsvektor. - Der Abstand oder die Distanz von zwei Elementen x, y V (aufgefasst als Punkte ) ist definiert als die Länge des Differenzvektors: j= dist(x, y) := y x. Für den Vektorraum R n mit dem Standardskalarprodukt ist die Länge eines Vektors nach dieser Definition x = x t x = x 2 + x x2 n. Die Standardbasis des R n ist eine Orthonormalbasis, und die eben gegebene Definition der Länge bzw. des Abstandes entspricht im R 2 dem Satz des Pythagoras, ebenso im R 3 durch zweifache Anwendung.
8 34 Lineare Algebra 26/7 c Rudolf Scharlau Bemerkung Wenn (V,, ) ein beliebiger euklidischer Vektorraum ist und B = (u,..., u n ) eine Orthonormalbasis von V, ferner x R n der Koordinatenvektor bezüglich B eines Vektors v V, dann hat man die entsprechende Formel auch für die Länge von v: v = v, v = x 2 + x x2 n = x. Wenn y der Koordinatenvektor eines weiteren Vektors w V ist, so gilt entsprechend n v, w = x i y i = x t y. i= Wir kommen nun zur Interpretation des Skalarproduktes v, w von zwei (verschiedenen) Vektoren v, w. In der Geometrie oder Physik wird das Skalarprodukt oft als das Produkt der Länge v mit dem Produkt der Länge des w Anteils in Richung von v, d.h. der orthogonalen Projektion von w auf v definiert. Dabei ergibt sich der zweite Faktor als w cos α, wobei α = α(v, w) der von v und w eingeschlossene Winkel ist. Beim axiomatischen Aufbau der Theorie der euklidischen Vektorräume wird diese Gleichung benutzt, um umgekehrt den Winkel zwischen zwei Vektoren überhaupt erst zu definieren. Vorher muss man folgende Ungleichung beweisen: Satz (Cauchy-Schwarz sche Ungleichung) Es sei (V,, ) ein euklidischer Vektorraum. Dann gilt für alle v, w V : v, w v w. Beweis: Die Behauptung ist äquivalent zu v 2 w 2 v, w 2. Zum Beweis können wir w annehmen, sonst sind beide Seiten der behaupteten Ungleichung gleich. Ausgangspunkt ist nun die Ungleichung v λw, v λw = v 2 2λ v, w + λ 2 w 2, die für alle λ R gilt. Wenn wir λ := v, w / w 2 setzen, ergibt sich wie gewünscht. v 2 v, w 2 w 2, Nun ist die angekündigte Definition eines Winkels (Winkelmaßes) problemlos möglich: Definition Der Winkel zwischen zwei Vektoren v und w in einem euklidischen Vektorraum ist definiert als α(v, w) := arccos v, w [, π]. v w Neben der Möglichkeit, Winkel zu definieren, hat die Cauchy-Schwarz sche Ungleichung noch eine weitere wichtige Folgerung, nämlich die sogenannte Dreiecksungleichung für die Norm von Vektoren bzw. den Abstand von Punkten. Im Hinblick auf den besonders für die Analysis wichtigen allgemeinen Begriff einer Norm auf einem Vektorraum halten wir im folgenden Satz noch zwei weitere Eigenschaften fest.
9 Lineare Algebra 26/7 c Rudolf Scharlau 35 Satz Es sei (V,, ) ein euklidischer Vektorraum. Dann hat die Normfunktion v v, V R die folgenden Eigenschaften: (N) v = v = (N2) αv = α v Homogenität (N3) v + w v + w Dreiecksungleichung für alle v, w V und alle α R. Beweis: Die Eigenschaft (N) ergibt sich unmittelbar aus der positiven Definitheit des Skalarproduktes. Die Eigenschaft (N2) rechnet man direkt nach: αv = αv, αv = α 2 v, v = α v. Zum Beweis von (N3) darf man beide Seiten der Behauptung quadrieren und benutzt dann 2..23: v + w 2 = v + w, v + w = v, v + 2 v, w + w, w v, v + 2 v w + w, w = ( v + w ) 2. Die Eigenschaft (N2) impliziert insbesondere, dass für jeden Vektor v der Vektor v := v v ein Einheitsvektor ist: v = v v = v v =. Wir hatten das bereits beim Gram-Schmidt-Verfahren benutzt. Der Name Dreiecksungleichung wird in folgender Skizze illustriert: v + w v w Wenn man genau hinsieht, handelt die Dreiecksungleichung von drei Punkten und ihren paarweisen Verbindungsvektoren. Für die Distanzfunktion formuliert bedeutet sie folgendes: dist(x, y) dist(x, z) + dist(z, y) für alle x, y, z V. Wir kommen nun zu einer Klasse von linearen Abbildungen, die für euklidische Vektorräume eine besondere Rolle spielt: Definition Es seien (V,, ) und (W,, ) zwei euklidische Vektorräume. Eine lineare Abbildung F : V W heißt orthogonal, falls für alle v, w V gilt: F (v), F (w) = v, w.
10 36 Lineare Algebra 26/7 c Rudolf Scharlau Orthogonale Abbildungen sind also diejenigen linearen Abbildungen, die das Skalarprodukt erhalten. So wie lineare Abbildungen die strukturerhaltenden Abbildungen zwischen allgemeinen Vektorräumen sind, sind orthogonale Abbildungen die strukturerhaltenden Abbildungen zwischen euklidischen Vektorräumen. Sie erhalten insbesondere die aus dem Skalarprodukt abgeleitete Relation des Senkrecht-Stehens (Orthogonalität von Vektoren): Wenn F : V W orthogonal ist und v, v 2 V beliebig, dann gilt v v 2 F (v ) F (v 2 ). Die nächste Bemerkung klärt, dass für orthogonale Abbildungen das gilt, was man von strukturerhaltenden Abbildungen immer erwartet: Bemerkung a) Die Verkettung von zwei orthogonalen Abbildungen ist wieder eine orthogonale Abbildung. b) Die Inverse einer bijektiven orthogonalen Abbildung ist wieder eine orthogonale Abbildung. c) Für einen festen euklidischen Vektorraum (V,, ) ist die Menge O(V ) = O(V,, ) aller bijektiven orthogonalen Abbildungen F : V V eine Gruppe bzgl. Abbildungsverkettung (nämlich eine Untergruppe der Gruppe GL(V ) aller Vektorraumautomorphismen von V ). Sie heißt orthogonale Gruppe von (V,, ). Die nächste Bemerkung zeigt, dass der Begriff der orthogonalen Abbildung auch neues Licht auf den Begriff der Orthonormalbasis wirft. Bemerkung Es sei (V,, ) ein euklidischer Vektorraum. Eine Basis B von V ist genau dann eine Orthonormalbasis, wenn der Basisisomorphismus Φ B : R n V eine orthogonale Abbildung ist. Zu beweisen ist nicht mehr viel: die Richtung wird genau durch die zweite Gleichung in ausgedrückt; die Richtung ist ebenfalls klar: das Bild eines Orthonormalsystems unter einer orthogonalen Abbildung ist offenbar wieder ein Orthonormalsystem. Wir kommen nun zu speziellen Eigenschaften von orthogonalen Abbildungen: Bemerkung a) Jede orthogonale Abbildung ist injektiv. b) Jede orthogonale Abbildung F : V V ist bijektiv, also ein Automorphismus von V. c) Jede orthogonale Abbildung F : V W erhält Norm und Distanz: F (v) = v und dist(f (x), F (y)) = dist(x, y) für alle v, x, y, V. Beweis: Zunächst zu c): die Aussage über die Norm folgt unmittelbar aus den Definitionen; die Aussage über die Distanz folgt daraus mittels der Linearität. Aussage a) ergibt sich dann als Folgerung aus c): wenn v Kern F ist, dann ist v = F (v) = =, also v = nach (N). Die Aussage b) schließlich folgt bekanntlich unmittelbar aus a) (siehe Korollar 2.9.4). Wir kommen schließlich zur Kennzeichnung derjenigen Matrizen, die orthogonale Abbildungen beschreiben (und zwar bezüglich Orthonormalbasen). Satz 2..3 (Kennzeichnung orthogonaler Matrizen) Für eine quadratische Matrix S R n n sind die folgenden fünf Bedingungen äquivalent:
11 Lineare Algebra 26/7 c Rudolf Scharlau 37 (i) S t S = E n. Dabei bezeichnet S t wie üblich die Transponierte zur Matrix S. (ii) Die Spalten von S bilden ein Orthonormalsystem im R n mit dem Standardskalarprodukt. (iii) Die Zeilen von S bilden ein Orthonormalsystem im R n mit dem Standardskalarprodukt. (iv) Die lineare Abbildung F S : R n R n ist eine orthogonale Abbildung bezüglich des Standardskalarproduktes auf R n. (v) Wenn (V,, ) und (W,, ) n-dimensionale euklidische Vektorräume sind und A und B Orthonormalbasen von V bzw. W, so ist die durch MB A (F ) = S definierte lineare Abbildung V W eine orthogonale Abbildung. Eine Matrix, die alle diese Eigenschaften hat, heißt orthogonale Matrix. Beweis: Die i-te Zeile von S ist gleich der i-ten Spalte von S t. Nach der Regel Zeile mal Spalte ist also der ij-eintrag von S t S gleich dem Standardskalarprodukt der i-ten mit der j-ten Spalte von S. Dieses zeigt die Äquivalenz (i) (ii). Die Aussage (iii) ist gleich der Aussage (ii) für die transponierte Matrix S t. Nach dem schon Gezeigten ist also (iii) äquivalent zu S S t = E n. Die Gleichungen S t S = E n und S S t = E n sind beide äquivalent zu S ist invertierbar und S = S t (siehe Satz 2.6.6), also sind sie auch zueinander äquivalent. Somit ist die Äquivalenz (iii) (i) bewiesen. Nun zur Äquivalenz (iv) (ii): Die Spalten von S sind die Bilder der Standard-Orthonormalbasis des R n unter F S. Da eine orthogonale Abbildung offenbar eine Orthonormalbasis wieder auf eine Orthonormalbasis abbildet, ist die Implikation klar. Die umgekehrte Implikation folgt sofort aus Bemerkung 2..28: Wenn B aus den Spalten von S besteht, ist Φ B : R n R n nichts anderes als die Abbildung F S. Schließlich die Äquivalenz (iv) (v): Wir betrachten das kommutative Diagramm F V W Φ A Φ B. R n F S R m Die Abbildungen Φ A und Φ B sind nach orthogonale Abbildungen. Nun können wir für beide Richtungen die Bemerkung anwenden: wenn F S orthogonal ist, dann ist auch F = Φ B F S Φ A orthogonal. Wenn umgekehrt F als orthogonal vorausgesetzt ist, dann ist auch F S = Φ B F Φ A orthogonal. Wir wollen schließlich noch die orthogonalen Abbildungen in der Dimension 2 klassifizieren. Für höhere Dimensionen geschieht das in einem späteren Kapitel. Satz 2..3 Die orthogonalen 2 2-Matrizen sind genau die Matrizen der Gestalt ( ) ( ) a b a b () (2), wobei a 2 + b 2 =. b a b a
12 38 Lineare Algebra 26/7 c Rudolf Scharlau Dieses sind die Matrizen ( cos α sin α () R α = sin α cos α ) bzw. (2) S α = ( cos α sin α sin α cos α ), wobei α [, 2π) angenommen werden kann. Die Matrix R α beschreibt die Drehung um den Nullpunkt um den Winkel α, die Matrix S α beschreibt die Spiegelung an derjenigen Geraden durch den Nullpunkt, die mit der x -Achse den Winkel α/2 einschließt.
13 Index Abb, 25, 6 Abbildung, 9 bijektive, identische, injektive, lineare, 87 surjektive, abelsch, 26 abgeschlossen, 32 abzählbar, 2 Addition, 59 ähnlich, 7 Äquivalenzrelation, 47 Argument einer Abbildung, 9 einer komplexen Zahl, 38 assoziativ, Austauschsatz, 83 Automorphismus, 36 Basis, 79 Basiswechselmatrix, 5 Betrag einer komplexen Zahl, 37 Bezout, Lemma von, 22 bijektiv, Bild, 9 Bilinearform, 27 bsp:standardbasis, 79 Definitionsbereich, 9 Differenzmenge, 5 Dimension, 83 direkte Summe, 25 Distributivgesetz, 29 Division mit Rest, 7 Drehung, 38 Dreiecksungleichung, 38 Dualraum, 6 Durchschnitt, 5 Einheit in einem Ring, 3 Einselement, 29 endlich erzeugt, 8 Erzeugendensystem, 77 Erzeugnis, 63 euklidischer Vektorraum, 28 ggt, 2 gleichmächtig, 2 Gleichungssystem lineares, 68 größter gemeinsamer Teiler, 2 Gradformel, 42 Gruppe, 26 abelsche, 26 allgemeine lineare, 27 orthogonale, 36 symmetrische, 27 Hintereinanderausführung, Homomorphismus, 53 identische Abbildung, Imaginärteil, 35 Induktion vollständige, 6 injektiv, Inklusion, 5 echte, 5 invertierbar, 3 isomorph, 53, 9 Isomorphismus von Gruppen, 52 von Vektorräumen, 9 Kardinalität, 3 kartesisches Produkt, 7 Kern, 9 Körper, 3 kommutativ, 26, 29 Komplement eines Untervektorraumes, 25 orthogonales, 3 komplementär Untervektorraum, 25 komplexe Konjugation, 37 Komposition, kongruent, 47 konjugiert-komplex, 37 LGS, 68 linear unabhängig, 78 lineare Abbildung, 87 lineares Gleichungssystem, 68 Linearform, 27 Linearkombinationen, 63 39
14 4 Lineare Algebra 26/7 c Rudolf Scharlau linksinvers, 2 Mächtigkeit, 3 Matrix eines LGS, 68 erweiterte, 68 orthogonale, 37 Monom, 63 neutrales Element, 26 normiert Polynom, 42 Nullraum, 6 Nullstelle, 44 orthogonal -raum, 29 Abbildung, 35 Gruppe, 36 komplement, 3 Matrix, 37 Summe, 3 Vektoren, 29 Orthogonalbasis, 3 Orthogonalsystem, 3 Orthonormalbasis, 3 Orthonormalsystem, 3 Partition, 49 Permutation, 27 Pivotspalten, 93 Polarkoordinaten, 38 Polynom, 3, 4 Polynomring, 4 positiv definit, 27 Potenzmenge, 8 Produktmenge, 7 Rang einer linearen Abbildung, 2 einer Matrix, 94 eines LGS, 74 eines Vektorsystems, 93 Realteil, 35 rechtsinvers, 2 reflexiv, 47 Relation, 47 Restklassenring, 5 Ring, 29 von Untervektorräumen, 64 surjektiv, symmetrisch, 47 Bilinearform, 27 Gruppe, 27 Matrix, 28 symmetrische Gruppe, 27 teilerfremd, 2 Teilmenge, 5 echte, 5 Teilraum, 6 affiner, 7 Teilring, 33 transitiv, 47 transponierte Matrix, 37 Unbestimmte, 3, 42 Untergruppe, 32 Unterraum affiner, 7 Unterring, 33 Untervektorraum, 6 aufgespannter, 63 erzeugter, 63 komplementärer, 25 Vektor, 59 Vektorraum, 59 euklidischer, 28 Vektorraum-Isomorphismus, 9 Vektorsystem, 77 Vereinigung, 5 Verkettung, Verknüpfung, 25 äußere, 59 Vielfachheit einer Nullstelle, 44 Zeilenraum, 94 Zeilenstufenform, 93 Zielbereich, 9 Zielmenge, 9 Zykel, 27 Zyklus, 27 Skalarmultiplikation, 59 Skalarprodukt, 27 Spaltenraum, 94 Spiegelung, 38 Standardvektorraum, 6 Stufenform, 74 Summe direkte, 25
2.9 Skalarprodukte und euklidische Vektorräume
Lineare Algebra 25-2 c Rudolf Scharlau 7 2.9 Skalarprodukte und euklidische Vektorräume Viele der in der Mathematik auftauchenden reellen Vektorräume tragen eine zusätzliche Struktur, nämlich ein sogenanntes
Mehr4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau
312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind
Mehri) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.
Abbildungen Rechnen Matrizen Rechnen Vektoren Äquivalenzrelation Addition: Skalarmultiplikation: Skalarprodukt: Länge eines Vektors: Vektorprodukt (im ): i ii i ii v) gilt (Cauchy-Schwarz-Ungleichung):
Mehr3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153
3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
Mehr1 Euklidische und unitäre Vektorräume
1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrLineare Algebra I Zusammenfassung
Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Mehr4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
MehrTechnische Universität München
Technische Universität München Michael Schreier Ferienkurs Lineare Algebra für Physiker Vorlesung Montag WS 2008/09 1 komplexe Zahlen Viele Probleme in der Mathematik oder Physik lassen sich nicht oder
Mehrfür alle a, b, x, y R.
Algebra I 13. April 2008 c Rudolf Scharlau, 2002 2008 33 1.5 Ringe Definition 1.5.1 Ein Ring ist eine Menge R zusammen mit zwei Verknüpfungen + und, genannt Addition und Multiplikation, für die folgendes
MehrSkalarprodukt, Norm & Metrik
Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
Mehr1 Linearkombinationen
Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Linearkombinationen Unter einer Linearkombination versteht man in der linearen Algebra einen Vektor, der sich durch
Mehr9 Vektorräume mit Skalarprodukt
9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden
Mehr2.4 Matrizen und Lineare Abbildungen
Lineare Algebra I WS 2015/16 c Rudolf Scharlau 73 2.4 Matrizen und Lineare Abbildungen Zum Schluss von Abschnitt 2.2 hatten wir Matrizen eingeführt, und zwar im Zusammenhang mit der abgekürzten Schreibweise
Mehr2.3 Basis und Dimension
Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrBild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz
Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 23. Mai 2016 Stefan Ruzika 7: Bild, Faser, Kern 23. Mai 2016 1 / 11 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume 4 Basis
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
MehrVektorräume. Kapitel Definition und Beispiele
Kapitel 3 Vektorräume 3.1 Definition und Beispiele Sei (V,,0) eine abelsche Gruppe, und sei (K, +,, 0, 1) ein Körper. Beachten Sie, dass V und K zunächst nichts miteinander zu tun haben, deshalb sollte
MehrLineare Algebra und analytische Geometrie II
Prof Dr H Brenner Osnabrück SS 26 Lineare Algebra und analytische Geometrie II Vorlesung 2 Orthogonalität Mit dem Skalarprodukt kann man die Eigenschaft zweier Vektoren, aufeinander senkrecht zu stehen,
Mehr11.2 Orthogonalität. Wintersemester 2013/2014
Universität Konstanz Fachbereich Mathematik und Statistik Wintersemester 2013/2014 Markus Scheighofer Lineare Algebra I 11.2 Orthogonalität Definition 11.2.1. Seien V ein K-Vektorraum mit Skalarprodukt
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
MehrVektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)
Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz
MehrDefinitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht
Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben
Mehr$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $
Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit
MehrÜbungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b
Mehr5 Lineare Abbildungen
5 Lineare Abbildungen Pink: Lineare Algebra HS 2014 Seite 56 5 Lineare Abbildungen 5.1 Definition Gegeben seien Vektorräume U, V, W über einem Körper K. Definition: Eine Abbildung f : V W heisst K-linear,
MehrLineare Algebra I (WS 13/14)
Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 15.11.2013 Alexander Lytchak 1 / 12 Erinnerung Eine Abbildung f : V W zwischen reellen Vektorräumen ist linear, wenn
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrKapitel 5. Vektorräume mit Skalarprodukt
Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der
MehrEinführung in die Grundlagen der Numerik
Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Normierter Vektorraum Sei X ein R-Vektorraum. Dann heißt
MehrÜbungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax
MehrKapitel VI. Euklidische Geometrie
Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und
MehrKapitel 13. Lineare Gleichungssysteme und Basen
Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x
Mehr2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
Mehr14 Skalarprodukt Abstände und Winkel
4 Skalarprodukt Abstände und Winkel Um Abstände und Winkel zu definieren benötigen wir einen neuen Begriff. Zunächst untersuchen wir die Länge eines Vektors v. Wir schreiben dafür v und sprechen auch von
MehrLineare Abbildungen. i=0 c ix i n. K n K m
Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht
MehrAufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
Mehr1.3 Gruppen. Algebra I 9. April 2008 c Rudolf Scharlau,
Algebra I 9. April 2008 c Rudolf Scharlau, 2002 2008 18 1.3 Gruppen Der Begriff der Gruppe ordnet sich in gewisser Weise dem allgemeineren Konzept der Verknüpfung (auf einer Menge) unter. So ist zum Beispiel
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrLineare Algebra Zusammenfassung
Lineare Algebra Zusammenfassung Gruppen, Körper, Vektorräume Gruppen Def.: Eine Gruppe (G, )besteht aus einer nicht-leeren Menge G und einer Verknüpfung zwischen Elementen dieser Gruppe. Folgende Eigenschaften
MehrL3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren...
L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren... (benötigt neue Struktur über Vektorraumaxiome hinaus) Sei Länge von nach Pythagoras: Länge quadratisch in Komponenten! - Für : Skalarprodukt
MehrJürgen Hausen Lineare Algebra I
Jürgen Hausen Lineare Algebra I 2. korrigierte Auflage Shaker Verlag Aachen 2009 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation
Mehr5.7 Lineare Abhängigkeit, Basis und Dimension
8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n
Mehr4.1. Vektorräume und lineare Abbildungen
4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt
MehrL3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren...
L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren... (benötigt neue Struktur über Vektorraumaxiome hinaus) Sei Länge von nach Pythagoras: Länge quadratisch in Komponenten! - Für : Skalarprodukt
Mehr4.4. Rang und Inversion einer Matrix
44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert
Mehr1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat.
1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat. übliche Beispiele: Ort r = r( x; y; z; t ) Kraft F Geschwindigkeit
MehrLineare Algebra I (WS 13/14)
Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden
Mehr8 Lineare Abbildungen und Matrizen
8 Lineare Abbildungen und Matrizen 8.1 Lineare Abbildungen Wir beschäftigen uns nun mit Abbildungen zwischen linearen Räumen. Von besonderem Interesse sind Abbildungen, die die Struktur der linearen Räume
Mehr2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
MehrWiederholung: lineare Abbildungen
Wiederholung: lineare Abbildungen Def Es seien (V,+, ) und (U, +, ) zwei Vektorräume Eine Abbildung f : V U heißt linear, falls für alle Vektoren v 1, v 2 V und für jedes λ R gilt: (a) f (v 1 + v 2 ) =
Mehr2.9 Die komplexen Zahlen
LinAlg II Version 1 3. April 2006 c Rudolf Scharlau 121 2.9 Die komplexen Zahlen Die komplexen Zahlen sind unverzichtbar für nahezu jede Art von höherer Mathematik. Systematisch gehören sie zum einen in
MehrLineare Algebra und analytische Geometrie I
Prof Dr H Brenner Osnabrück WS 205/206 Lineare Algebra und analytische Geometrie I Vorlesung 9 Basiswechsel Wir wissen bereits, dass in einem endlichdimensionalen Vektorraum je zwei Basen die gleiche Länge
Mehr3.5 Duale Vektorräume und Abbildungen
3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung
Mehr2.2 Kern und Bild; Basiswechsel
22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare
Mehr= ( n x j x j ) 1 / 2
15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors
MehrLineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß
Lineare Algebra I - 26. Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Donnerstag 8.12.: 8:30 Uhr - Vorlesung 10:15 Uhr - große Übung / Fragestunde Klausur: Mittwoch, 14.12. 14:15 Uhr, A3 001 Cauchy-Schwarz
MehrPrüfung Lineare Algebra 2
1. Überprüfen Sie die folgenden Aussagen: (1) Zwei reelle symmetrische Matrizen sind genau dann ähnlich, wenn sie die gleiche Signatur haben. (2) Jede symmetrische Matrix ist kongruent zu einer Diagonalmatrix,
MehrC orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =
1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
Mehrβ 1 x :=., und b :=. K n β m
44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Symmetrische
MehrDer Kern einer Matrix
Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis
MehrKapitel III. Lineare Abbildungen
Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,
MehrDidaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra
A. Filler[-3mm] Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra, Teil 8 Folie 1 /27 Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra 8. Das Skalarprodukt, metrische
MehrFerienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte
Technische Universität München, Fakultät für Physik Ferienkurs - ineare Algebra Hanna Schäfer 03. März 04 0. inearität. f : M N, x : y = f(x) Merkinhalte. f(x + λy) = f(x) + λf(y), x, y V, λ K 3. ineare
Mehr1.1 Mengen und Abbildungen
Lineare Algebra I WS 2015/16 c Rudolf Scharlau 3 1.1 Mengen und Abbildungen In diesem Abschnitt stellen wir die grundlegende mathematische Sprache und Notation zusammen, die für jede Art von heutiger Mathematik
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
Mehr2.3 Lineare Abbildungen und Matrizen
2.3. LINEARE ABBILDUNGEN UND MATRIZEN 89 Bemerkung Wir sehen, dass die Matrix à eindeutig ist, wenn x 1,...,x r eine Basis ist. Allgemeiner kann man zeigen, dass sich jede Matrix mittels elementarer Zeilenumformungen
MehrAusgewählte Lösungen zu den Übungsblättern 4-5
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit
Mehr1 Eigenschaften von Abbildungen
Technische Universität München Christian Neumann Ferienkurs Lineare Algebra für Physiker Vorlesung Dienstag WS 2008/09 Thema des heutigen Tages sind zuerst Abbildungen, dann spezielle Eigenschaften linearer
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
Mehrx 2 + y 2 = f x y = λ
Lineare Abbildungen Def Es seien (V 1,+, ) und (V 2,+, ) zwei Vektorräume Eine Abbildung f : V 1 V 2 heißt linear, falls für alle Vektoren u,v V 1 und für jedes λ R gilt: f (u + v) = f (u) + f (v), f (λu)
MehrÜbungen zur Linearen Algebra 1
Übungen zur Linearen Algebra 1 Wintersemester 2014/2015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 10 Abgabetermin: Freitag, 16.01.2015, 11 Uhr Auf diesem
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
MehrDer Rangsatz für lineare Abbildungen
Der Rangsatz für lineare Abbildungen Satz Sei f : V W eine lineare Abbildung Dann gilt dim V = dim Kern(f) + dim Bild(f), also gleichbedeutend dim Kern(f) = dim V rg(f) Da uns in der Regel bei gegebenem
MehrGrundlagen der Mathematik 1
Fachbereich Mathematik Sommersemester 2010, Blatt 14 Thomas Markwig Stefan Steidel Grundlagen der Mathematik 1 Die Lösungen müssen nicht eingereicht werden und werden auch nicht korrigiert. Die Aufgaben
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
Mehr3 Lineare Abbildungen und Matrizen
3 Lineare Abbildungen und Matrizen Definition 3.1. Es seien V und W zwei Vektorräume über demselben Zahlkörper k. Eine Abbildung heisst linear, falls gilt i) [ λ k ] [ v V ] [ f (λ v) = λ f ( v) ] ii)
MehrInhaltsverzeichnis. I Lineare Gleichungssysteme und Matrizen 1. Vorwort
Vorwort V I Lineare Gleichungssysteme und Matrizen 1 1 Der Begriff des Körpers 3 1.1 Mengen 3 1.2 Köiperaxiome 3 1.3 Grundlegende Eigenschaften von Körpern 5 1.4 Teilkörper 7 1.5 Aufgaben 8 1.5.1 Grundlegende
Mehr(Allgemeine) Vektorräume (Teschl/Teschl 9)
(Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:
MehrMatrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).
Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen
MehrLineare Algebra I (WS 13/14)
Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 05.11.2013 Alexander Lytchak 1 / 14 Linearkombinationen Definition Es sei V ein reeller Vektorraum. Es sei (v i ) i
Mehr3. Übungsblatt zur Lineare Algebra I für Physiker
Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrPrüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?
1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
MehrIn diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,
2 Vektorräume In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa Unterraum, Linearkombination, lineare Unabhängigkeit und Erzeugendensystem.
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
MehrErgänzung zum HM Tutorium
Ergänzung zum HM Tutorium Patrik Hlobil Niko Kainaris Dieses Dokument erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit. Es stellt keine Vorlesungszusammenfassung dar, sondern soll euch lediglich
MehrLineare Algebra und analytische Geometrie I
Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein
MehrLösung Semesterendprüfung (Nachprüfung)
MLAE Mathematik: Lineare Algebra für Ingenieure Frühlingssemester 6 Dr. Christoph Kirsch ZHAW Winterthur Lösung Semesterendprüfung (Nachprüfung Aufgabe : Aufgabe : a Gemäss Def. der Vorlesung müssen wir
Mehr1 Mengen und Abbildungen
1 MENGEN UND ABBILDUNGEN 1 1 Mengen und Abbildungen Wir starten mit einigen einführenden Definitionen und Ergebnissen aus der Theorie der Mengen und Abbildungen, die nicht nur Grundlage der Linearen Algebra
Mehr