2.10 Skalarprodukte und euklidische Vektorräume

Größe: px
Ab Seite anzeigen:

Download "2.10 Skalarprodukte und euklidische Vektorräume"

Transkript

1 Lineare Algebra 26/7 c Rudolf Scharlau Skalarprodukte und euklidische Vektorräume Viele der in der Mathematik auftauchenden reellen Vektorräume tragen eine zusätzliche Struktur, nämlich ein sogenanntes Skalarprodukt, das je zwei Vektoren eine Zahl (eben ihr Produkt ) zuordnet. Ein R- Vektorraum mit einer solchen Zusatzstruktur heißt euklidischer Vektorraum. Skalarprodukte können zur Behandlung der euklidischen Geometrie in analytischer Darstellung benutzt werden, etwas darüber hinausgehend zur Längen- und Winkelmessung. Sie tauchen aber auch in vielen Bereichen der angewandten Mathematik auf (manchmal explizit, manchmal verdeckt). Zu erwähnen wäre hier die Approximation von Funktionen durch andere (einfachere) Funktionen in der numerischen Mathematik oder Funktionalanalysis, aber auch die Approximation von Daten aller Art. Sogar die aus der Statistik bekannten Korrelationskoeffizienten können als Skalarprodukte aufgefasst werden. Wir behandeln hier die Grundbegriffe der Theorie der euklidischen Vektorräume: symmetrische Bilinearform, Skalarprodukt, Orthogonalität von Vektoren, Orthogonalraum und orthogonales Komplement, orthogonale Projektion, Orthonormalbasen, Cauchy-Schwarz sche Ungleichung, Längen und Winkel, orthogonale Abbildungen und Matrizen. Skalarprodukte sind spezielle (nämlich positiv definite) symmetrische Bilinearformen über dem Körper R der reellen Zahlen. Allgemeine symmetrische Bilinearformen über R und allgemeiner über im Prinzip beliebigen Körpern werden in einem späteren Kapitel behandelt. Ebenso werden die orthogonalen Abbildungen noch einmal aufgegriffen. Definition 2.. Sei K ein Körper, V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung b : V V K mit folgenden Eigenschaften: b(v + v 2, w) = b(v, w) + (v 2, w) b(v, w + w 2 ) = b(v, w ) + b(v, w 2 ) b(αv, w) = αb(v, w) b(v, βw) = βb(v, w) für alle v, w, v, v 2, w, w 2 V, α, β K. Die Bilinearform heißt symmetrisch, wenn b(v, w) = b(w, v) für alle v, w V. Für K = R, allgemeiner K R, heißt b positiv definit, falls b(v, v) > für alle v V {}. Eine positiv definite, symmetrische Bilinearform heißt auch Skalarprodukt. Bemerkung 2..2 Es sei b : V V K eine Bilinearform. a) Für jedes festes v V ist die Abbildung x b(v, x), V K eine lineare Abbildung. Das gleich gilt für x b(x, v), V K. b) Es gilt b(v, ) = = b(, v) für alle v V. Teil a) ergibt sich unmittelbar aus der Definition, b) folgt aus a). Eine lineare Abbildung mit dem Grundkörper als Zielraum wird auch als lineare Funktion oder Linearform bezeichnet. Wir kommen in Kapitel 4. darauf zurück.

2 28 Lineare Algebra 26/7 c Rudolf Scharlau Speziell für Skalarprodukte ist auch die Schreibweise (v, w) v, w R üblich, d.h. man verzichtet auf einen Funktionsnamen wie b und schreibt stattdessen ggf., (mit Leerstellen statt der Argumente v, w der Abbildung). Definition 2..3 Ein euklidischer Vektorraum ist ein Objekt (V,, ), wobei V ein endlich-dimensionaler R-Vektorraum ist und, : V V R ein Skalarprodukt. Bevor wir zu Beispielen kommen, noch ein kleiner begrifflicher Exkurs. Definition 2..4 (Die Transponierte einer Matrix) a) Eine Matrix heißt symmetrisch,, wenn sie quadratisch ist, S K n n für ein n, und wenn a ij = a ji für alle i, j {,..., n} ist. b) Die Transponierte A t einer Matrix A K m n ist die Matrix (a ji ) Kn m, die durch a ji := a ij für alle i {,..., m} und j {,..., n} definiert wird. Die Zeilen von A t entsprechen also den Spalten von A, oder bildlich ausgedrückt: Die transponierte Matrix A t entsteht aus A durch Spiegeln an der Hauptdiagonalen, die aus den Diagonalelementen a ii gebildet wird. Eine Matrix S ist genau dann symmetrisch, wenn S = S t ist. In früheren Übungen ist die transponierte Matrix eventuell schon einmal bei der Berechnung einer Basis eines Spaltenraumes mittels des Gauß-Verfahrens vorgekommen. Dieses ist aber eine theoriefreie, rein rechentechnische Benutzung der Transponierten: Beim Rechnen mit der Hand arbeitet man gewohnheitsmäßig mit Zeilen(vektoren), nicht mit Spalten(vektoren). Erst in der Theorie der Bilinearformen sowie beim Begriff des Dualraums und der dualen Abbildung (Kapitel 4) bekommt die Transponierte eine eigenständige Bedeutung. Für den Augenblick halten wir noch fest: Bemerkung 2..5 a) Für beliebige Matrizen A K m n und B K n p gilt (AB) t = B t A t. b) Für jede Matrix A gilt rang(a) = rang(a t ). Teil a) ergibt sich durch einfaches Hinschauen aus den Definitionen, Teil b) folgt unmittelbar aus Satz (Zeilenrang gleich Spaltenrang). Beispiele Die auf R n R n durch x t y = n x i y i definierte Funktion (Zeile mal Spalte) ist ein Skalarprodukt, das sogenannte Standardskalarprodukt. 2. Für einen beliebigen Körper K ist die in definierte Funktion eine symmetrische Bilinearform auf K n. i= 3. Sei A K n n eine quadratische Matrix. Definiere b = b A : K n K n K durch b A ( x, y) = n x i a ij y j. i,j=

3 Lineare Algebra 26/7 c Rudolf Scharlau 29 Die so definierte Funktion ist eine Bilinearform auf K n. Dabei sind wie üblich x, y Spaltenvektoren. Unter Benutzung des transponierten Vektors x t, also des gleichen Vektors als Zeile geschrieben (das ist ein Spezialfall einer transponierten Matrix), kann man die rechte Seite der Definition schreiben als n x i a ij y j = x t A y. i,j= Hier ist x t A y ein zweifaches Matrizenprodukt, dessen Ergebnis eine -Matrix, also ein Zahl ist. 4. Für eine gegebene quadratische Matrix A ist die Bilinearform b A genau dann symmetrisch, wenn die Matrix A symmetrisch ist. Beweis als Übung. 5. Satz: Jede Bilinearform b auf K n ist von der Form b A für eine passende Matrix A. Zum Beweis von 5. definiert man a ij := b(e i, e j ). Bemerkung und Definition 2..7 Es sei (V,, ) ein euklidischer Vektorraum. a) Zwei Vektoren v, w V heißen orthogonal oder senkrecht zueinander, in Zeichen v w, falls v, w = ist. b) Für v V ist v := {x V x, v = } = {x V x v} ein Untervektorraum von V. Er heißt der der Orthogonalraum zu v. c) Für eine Teilmenge M V ist M := {x V v M : x, v = } ein Untervektorraum von V. Er heißt der Orthogonalraum zu M. Die Orthogonalitätsrelation auf V ist symmetrisch: Für alle v, w V gilt v w w v. Die weitere Untersuchung von Orthogonalräumen bereiten wir mit der folgenden allgemeinen Bemerkung vor: Definition und Bemerkung 2..8 Es sei V ein endlich-dimensionaler K-Vektorraum über einem beliebigen Körper K. a) Ein Unterraum H der Dimension dim H = dim V heißt Hyperebene in V. b) Wenn f : V K eine lineare Funktion ist, nicht die Nullfunktion, dann ist Kern f eine Hyperebene in V. c) Es sei (V,, ) ein euklidischer Vektorraum. Der Orthogonalraum v eines Vektors v ist eine Hyperebene. Beweis: Wegen dim Bild f = folgt Teil b) sofort aus der Dimensionsformel für lineare Abbildungen Satz Teil c) folgt aus b), weil v der Kern der linearen Abbildung x b(x, v), V R ist. Wegen b(v, v) ist dieses nicht die Nullabbildung. Wenn M ein Untervektorraum ist, muss man die Orthogonalitätsbedingung x, v = nicht für alle v M, sondern nur für die Vektoren eines Erzeugendensystems testen. Etwas anders gewendet gilt:

4 3 Lineare Algebra 26/7 c Rudolf Scharlau Bemerkung 2..9 a) Für jede Teilmenge M V gilt M = (Lin M). b) Wenn U ein Unterraum ist und u,..., u k eine Basis von U, so gilt U = u u 2 u k. Teil a) muss man nachprüfen, b) folgt sofort aus a). Bevor wir mit der letzten Bemerkung Orthogonalräume weiter untersuchen, noch eine generelle Feststellung über Schnitte mit einer Hyperebenen. Lemma 2.. Es sei V ein endlich-dimensionaler K-Vektorraum über einem beliebigen Körper, U ein Untervektorraum und H eine Hyperebene in V. Dann ist U H eine Hyperebene in U, also dim(u H) = dim U, oder es ist U H. Das folgt sofort aus der Dimensionsformel für Summe und Durchschnitt, denn es muss U + H = V oder U + H = H sein. Aus Bemerkung 2..9.b) folgt nun durch k-fache Anwendung des letzten Lemmas: Hilfssatz Es sei (V,, ) ein n-dimensionaler euklidischer Vektorraum und U ein Unterraum der Dimension k. Dann gilt für die Dimension des Orthogonalraumes dim U n k. Der Hilfssatz wird nur für kurze Zeit gebraucht, denn aus dem folgenden Satz geht hervor, dass in Wirklichkeit sogar Gleichheit gilt. Wir erinnern vorher noch an den Begriff der direkten Summe und des Komplementes aus Satz und Definition 2.. (Orthogonales Komplement) Es sei (V,, ) ein euklidischer Vektorraum und U V ein beliebiger Untervektorraum. Dann hat man eine Zerlegung als direkte Summe V = U U. Man spricht von einer orthogonalen (direkten) Summe von Untervektorräumen und nennt U auch das orthogonale Komplement zu U in V. Beweis: Da ein Skalarprodukt positiv definitit ist, ist U U = {}, denn für einen Vektor u in diesem Schnitt ist u, u =, also u =. Die Summe U + U ist also direkt, und nach dem Korollar sowie dem vorigen Hilfssatz ist dim(u U ) = dim U + dim U k + (n k) = n = dim V. Es muss also U U = V (und weiter dim U = n k) sein. Wir gehen für einen Augenblick zu beliebigen Direkte-Summen-Zerlegungen zurück, ohne Berücksichtigung eines Skalarproduktes. Wenn V = U W ist, dann gibt es zu jedem v V eindeutige Vektoren u U und w W so, dass v = u + w ist. Ausgehend von dieser Festellung überlegt man sich leicht: Bemerkung und Definition 2..2 Sei V ein K-Vektorraum, zerlegt als direkte Summe von zwei Untervektorräumen: V = U W. Dann ist die Abbildung V U, v = u + w u, wobei u U, w W sinnvoll definiert und linear. Diese Abbildung heißt die Projektion von V auf U mit Kern W. Definition 2..3 Es seien (V,, ) ein euklidischer Vektorraum und U V ein Untervektorraum. Dann heißt die Projektion von V auf U mit Kern U auch die orthogonale Projektion auf U. Bezeichnung: pr U : V U.

5 Lineare Algebra 26/7 c Rudolf Scharlau 3 Wir haben folgende direkte Beschreibung von pr U (ohne ausdrückliche Benutzung von 2..2): Bemerkung 2..4 Ein Vektor v ist genau dann die orthogonale Projektion pr U (v) von v auf U, wenn gilt: v U, v v U. Nächstes Ziel ist nun eine explizite Berechung der orthogonalen Projektion. Hierzu zunächst ein Begriff, der für euklidische Vektorräume von ganz allgemeinem Interesse ist. Definition 2..5 Es sei (V,, ) ein euklidischer Vektorraum. - Ein Vektorsystem v,..., v k von V heißt Orthogonalsystem, falls die v i paarweise orthogonal sind: v i, v j = für i j. Falls v,..., v k zusätzlich eine Basis ist, heißt diese Orthogonalbasis. - Ein Vektorsystem u,..., u k heißt Orthonormalsystem, falls die u i paarweise orthogonal sind und u i, u i =, für i =,..., k. Falls u,..., u k zusätzlich eine Basis ist, heißt diese Orthonormalbasis, kurz ON-Basis. Wenn man eine ON-Basis von U hat, kann man die orthogonale Projektion auf U direkt hinschreiben: Lemma 2..6 (Konstruktion der orthogonalen Projektion) Es seien (V,, ) ein euklidischer Vektorraum, U V ein Untervektorraum und u,..., u k eine Orthonormalbasis von U. Dann ist die orthogonale Projektion von V auf U gegeben durch pr U (v) = k v, u j u j. j= Beweis: Wenn wir die rechte Seite für den Moment v nennen, so ist zunächst einmal v U. Weiter rechnet man nach, dass v v orthogonal zu jedem u i ist. Nach 2..9 ist also v v U, und die Behauptung ergibt sich aus 2..4 Auf den ersten Blick nützt dieses Lemma nur etwas, wenn man eine ON- Basis von U bereits hat. Man kann aber durch sukzessive Anwendung der gleichen Formel eine ON-Basis (von U, ggf. von V ) auch berechnen. Dieses ist der Inhalt des folgenden Satzes (und seines Beweises): Satz 2..7 (Orthogonalisierung nach Gram-Schmidt) Es sei (V,, ) ein euklidischer Vektorraum und v,..., v n eine beliebige Basis von V. Dann gibt es eine Orthonormalbasis v,..., v n von V so, dass v i Rv + Rv Rv i für i =,..., n. Die v i sind bis auf das Vorzeichen eindeutig durch die v i (und deren Reihenfolge) bestimmt. Beweis: Man betrachtet die Kette von Unterräumen V i := Lin{v,..., v i }, für i =,..., n. Setze v := v / v, v (Normierung des Vektors v, siehe auch unten für weiteres hierzu). Wenn v,..., v i als ON-Basis von V i bereits gefunden sind, für ein i < n, bestimme zunächst ṽ i+ := v i+ pr Vi (v i+ ) gemäß 2..6 und normiere dann noch zu v i+ := ṽi+, ṽ i+ ṽi+. (Orthogonalisierung) (Normierung)

6 32 Lineare Algebra 26/7 c Rudolf Scharlau Die angesprochene Eindeutigkeit ist ebenfalls leicht zu sehen: im eindimensionalen orthogonalen Komplement von V i in V i+ gibt es nur zwei Vektoren w mit w, w =. In der Praxis führt das Normieren der Vektoren zu häufigem Wurzelziehen. Deswegen ist es gut, die folgende Variante der Formel aus Lemma 2..6 zur Hand zu haben, die lediglich voraussetzt, dass die u i eine Orthogonalbasis bilden: pr U (v) = k j= b(v, u j ) b(u j, u j )u j. (OP) Wir haben hier b(v, w) statt v, w geschrieben, um zu betonen dass ein beliebiges Skalarprodukt zugrundegelegt ist; auch im R n beschränkt sich die Gültigkeit der Formel (wie schon in Lemma 2..6) nicht auf das Standardskalarprodukt. Mit dieser Formel kann man das Gram-Schmidt- Verfahren etwas modifizieren, nämlich vollständig mit den Vektoren ṽ i (statt der v i ) durchführen. Man erhält ohne Wurzelziehen eine Orthogonalbasis, deren Vektoren in einem letzten, unabhängigen Schritt normiert werden können. Wir wenden dieses Vorgehen im folgenden Beispiel an. Beispiel 2..8 Wir betrachten den R 3 mit dem Standardskalarprodukt und wenden das modifizierte Gram-Schmidt-Verfahren auf folgende drei Vektoren an: Es ergibt sich: v =, v 2 =, v 3 =. ṽ = v ṽ 2 = v 2 v 2, v v, v v = 3 = /3 2/3 /3 ṽ 2, ṽ 2 = 2/3 ṽ 3 = v 3 v 3, v v, v v v 3, ṽ 2 ṽ 2, ṽ 2 ṽ2 = 3 + /3 2/3 /3 2/3 /3 = /2 /2 ṽ 3, ṽ 3 = /2 Abschließend führt man die Normierung durch:

7 Lineare Algebra 26/7 c Rudolf Scharlau 33 v = 3, v 2 = 6 2, v 3 = 2. Korollar 2..9 (Berechnung des orthogonalen Komplementes) Es sei (V,, ) ein euklidischer Vektorraum, U ein Untervektorraum. Wähle eine beliebige Basis v,..., v k von U, ergänze sie durch v k+,..., v n zu einer Basis von V. Es sei ṽ,..., ṽ n die hieraus nach Satz 2..7 berechnete Orthogonalbasis von V. Dann ist ṽ k+,..., ṽ n eine Basis von U. Wir stellen fest, dass dieses Korollar erneut die Dimensionsformel dim U + dim U = dim V, also den entscheidenden Teil von Satz 2.., beweist. Noch eine ergänzende Bemerkung zum Begriff der Orthonormalbasis: Um die lineare Unabhängigkeit muss man sich hier nicht kümmern, denn es gilt folgende generelle Bemerkung: a) Jedes Orthonormalsystem ist linear unab- Bemerkung 2..2 hängig. b) Wenn B = (u,..., u n ) eine Orthonormalbasis von V ist, dann ist die i-te Koordinate von v V bezüglich B gleich v, u i. Beweis: Sei u,..., u n ein Orthonormalsystem und v = n j= x ju j mit x j R. Dann ist n n v, u i = x j u j, u i = x j u j, u i = x i j= für jedes i =,..., n. Wenn v = ist, ergibt sich also x i = für alle i und somit die lineare Unabhängigkeit von B. Die Behauptung unter b) ist ebenfalls bewiesen. Wir kommen nun zu den metrischen Begriffen, die sich aus einem Skalarprodukt ableiten lassen: Länge eines Vektors (auch Norm genannt) bzw. Abstand zweier Punkte im Vektorraum, sowie der Winkel zwischen zwei Vektoren. Definition 2..2 Es sei (V,, ) ein euklidischer Vektorraum. - Für v V heißt die Zahl v := v, v R die Länge oder Norm von v. Ein Vektor der Länge heißt normiert oder Einheitsvektor. - Der Abstand oder die Distanz von zwei Elementen x, y V (aufgefasst als Punkte ) ist definiert als die Länge des Differenzvektors: j= dist(x, y) := y x. Für den Vektorraum R n mit dem Standardskalarprodukt ist die Länge eines Vektors nach dieser Definition x = x t x = x 2 + x x2 n. Die Standardbasis des R n ist eine Orthonormalbasis, und die eben gegebene Definition der Länge bzw. des Abstandes entspricht im R 2 dem Satz des Pythagoras, ebenso im R 3 durch zweifache Anwendung.

8 34 Lineare Algebra 26/7 c Rudolf Scharlau Bemerkung Wenn (V,, ) ein beliebiger euklidischer Vektorraum ist und B = (u,..., u n ) eine Orthonormalbasis von V, ferner x R n der Koordinatenvektor bezüglich B eines Vektors v V, dann hat man die entsprechende Formel auch für die Länge von v: v = v, v = x 2 + x x2 n = x. Wenn y der Koordinatenvektor eines weiteren Vektors w V ist, so gilt entsprechend n v, w = x i y i = x t y. i= Wir kommen nun zur Interpretation des Skalarproduktes v, w von zwei (verschiedenen) Vektoren v, w. In der Geometrie oder Physik wird das Skalarprodukt oft als das Produkt der Länge v mit dem Produkt der Länge des w Anteils in Richung von v, d.h. der orthogonalen Projektion von w auf v definiert. Dabei ergibt sich der zweite Faktor als w cos α, wobei α = α(v, w) der von v und w eingeschlossene Winkel ist. Beim axiomatischen Aufbau der Theorie der euklidischen Vektorräume wird diese Gleichung benutzt, um umgekehrt den Winkel zwischen zwei Vektoren überhaupt erst zu definieren. Vorher muss man folgende Ungleichung beweisen: Satz (Cauchy-Schwarz sche Ungleichung) Es sei (V,, ) ein euklidischer Vektorraum. Dann gilt für alle v, w V : v, w v w. Beweis: Die Behauptung ist äquivalent zu v 2 w 2 v, w 2. Zum Beweis können wir w annehmen, sonst sind beide Seiten der behaupteten Ungleichung gleich. Ausgangspunkt ist nun die Ungleichung v λw, v λw = v 2 2λ v, w + λ 2 w 2, die für alle λ R gilt. Wenn wir λ := v, w / w 2 setzen, ergibt sich wie gewünscht. v 2 v, w 2 w 2, Nun ist die angekündigte Definition eines Winkels (Winkelmaßes) problemlos möglich: Definition Der Winkel zwischen zwei Vektoren v und w in einem euklidischen Vektorraum ist definiert als α(v, w) := arccos v, w [, π]. v w Neben der Möglichkeit, Winkel zu definieren, hat die Cauchy-Schwarz sche Ungleichung noch eine weitere wichtige Folgerung, nämlich die sogenannte Dreiecksungleichung für die Norm von Vektoren bzw. den Abstand von Punkten. Im Hinblick auf den besonders für die Analysis wichtigen allgemeinen Begriff einer Norm auf einem Vektorraum halten wir im folgenden Satz noch zwei weitere Eigenschaften fest.

9 Lineare Algebra 26/7 c Rudolf Scharlau 35 Satz Es sei (V,, ) ein euklidischer Vektorraum. Dann hat die Normfunktion v v, V R die folgenden Eigenschaften: (N) v = v = (N2) αv = α v Homogenität (N3) v + w v + w Dreiecksungleichung für alle v, w V und alle α R. Beweis: Die Eigenschaft (N) ergibt sich unmittelbar aus der positiven Definitheit des Skalarproduktes. Die Eigenschaft (N2) rechnet man direkt nach: αv = αv, αv = α 2 v, v = α v. Zum Beweis von (N3) darf man beide Seiten der Behauptung quadrieren und benutzt dann 2..23: v + w 2 = v + w, v + w = v, v + 2 v, w + w, w v, v + 2 v w + w, w = ( v + w ) 2. Die Eigenschaft (N2) impliziert insbesondere, dass für jeden Vektor v der Vektor v := v v ein Einheitsvektor ist: v = v v = v v =. Wir hatten das bereits beim Gram-Schmidt-Verfahren benutzt. Der Name Dreiecksungleichung wird in folgender Skizze illustriert: v + w v w Wenn man genau hinsieht, handelt die Dreiecksungleichung von drei Punkten und ihren paarweisen Verbindungsvektoren. Für die Distanzfunktion formuliert bedeutet sie folgendes: dist(x, y) dist(x, z) + dist(z, y) für alle x, y, z V. Wir kommen nun zu einer Klasse von linearen Abbildungen, die für euklidische Vektorräume eine besondere Rolle spielt: Definition Es seien (V,, ) und (W,, ) zwei euklidische Vektorräume. Eine lineare Abbildung F : V W heißt orthogonal, falls für alle v, w V gilt: F (v), F (w) = v, w.

10 36 Lineare Algebra 26/7 c Rudolf Scharlau Orthogonale Abbildungen sind also diejenigen linearen Abbildungen, die das Skalarprodukt erhalten. So wie lineare Abbildungen die strukturerhaltenden Abbildungen zwischen allgemeinen Vektorräumen sind, sind orthogonale Abbildungen die strukturerhaltenden Abbildungen zwischen euklidischen Vektorräumen. Sie erhalten insbesondere die aus dem Skalarprodukt abgeleitete Relation des Senkrecht-Stehens (Orthogonalität von Vektoren): Wenn F : V W orthogonal ist und v, v 2 V beliebig, dann gilt v v 2 F (v ) F (v 2 ). Die nächste Bemerkung klärt, dass für orthogonale Abbildungen das gilt, was man von strukturerhaltenden Abbildungen immer erwartet: Bemerkung a) Die Verkettung von zwei orthogonalen Abbildungen ist wieder eine orthogonale Abbildung. b) Die Inverse einer bijektiven orthogonalen Abbildung ist wieder eine orthogonale Abbildung. c) Für einen festen euklidischen Vektorraum (V,, ) ist die Menge O(V ) = O(V,, ) aller bijektiven orthogonalen Abbildungen F : V V eine Gruppe bzgl. Abbildungsverkettung (nämlich eine Untergruppe der Gruppe GL(V ) aller Vektorraumautomorphismen von V ). Sie heißt orthogonale Gruppe von (V,, ). Die nächste Bemerkung zeigt, dass der Begriff der orthogonalen Abbildung auch neues Licht auf den Begriff der Orthonormalbasis wirft. Bemerkung Es sei (V,, ) ein euklidischer Vektorraum. Eine Basis B von V ist genau dann eine Orthonormalbasis, wenn der Basisisomorphismus Φ B : R n V eine orthogonale Abbildung ist. Zu beweisen ist nicht mehr viel: die Richtung wird genau durch die zweite Gleichung in ausgedrückt; die Richtung ist ebenfalls klar: das Bild eines Orthonormalsystems unter einer orthogonalen Abbildung ist offenbar wieder ein Orthonormalsystem. Wir kommen nun zu speziellen Eigenschaften von orthogonalen Abbildungen: Bemerkung a) Jede orthogonale Abbildung ist injektiv. b) Jede orthogonale Abbildung F : V V ist bijektiv, also ein Automorphismus von V. c) Jede orthogonale Abbildung F : V W erhält Norm und Distanz: F (v) = v und dist(f (x), F (y)) = dist(x, y) für alle v, x, y, V. Beweis: Zunächst zu c): die Aussage über die Norm folgt unmittelbar aus den Definitionen; die Aussage über die Distanz folgt daraus mittels der Linearität. Aussage a) ergibt sich dann als Folgerung aus c): wenn v Kern F ist, dann ist v = F (v) = =, also v = nach (N). Die Aussage b) schließlich folgt bekanntlich unmittelbar aus a) (siehe Korollar 2.9.4). Wir kommen schließlich zur Kennzeichnung derjenigen Matrizen, die orthogonale Abbildungen beschreiben (und zwar bezüglich Orthonormalbasen). Satz 2..3 (Kennzeichnung orthogonaler Matrizen) Für eine quadratische Matrix S R n n sind die folgenden fünf Bedingungen äquivalent:

11 Lineare Algebra 26/7 c Rudolf Scharlau 37 (i) S t S = E n. Dabei bezeichnet S t wie üblich die Transponierte zur Matrix S. (ii) Die Spalten von S bilden ein Orthonormalsystem im R n mit dem Standardskalarprodukt. (iii) Die Zeilen von S bilden ein Orthonormalsystem im R n mit dem Standardskalarprodukt. (iv) Die lineare Abbildung F S : R n R n ist eine orthogonale Abbildung bezüglich des Standardskalarproduktes auf R n. (v) Wenn (V,, ) und (W,, ) n-dimensionale euklidische Vektorräume sind und A und B Orthonormalbasen von V bzw. W, so ist die durch MB A (F ) = S definierte lineare Abbildung V W eine orthogonale Abbildung. Eine Matrix, die alle diese Eigenschaften hat, heißt orthogonale Matrix. Beweis: Die i-te Zeile von S ist gleich der i-ten Spalte von S t. Nach der Regel Zeile mal Spalte ist also der ij-eintrag von S t S gleich dem Standardskalarprodukt der i-ten mit der j-ten Spalte von S. Dieses zeigt die Äquivalenz (i) (ii). Die Aussage (iii) ist gleich der Aussage (ii) für die transponierte Matrix S t. Nach dem schon Gezeigten ist also (iii) äquivalent zu S S t = E n. Die Gleichungen S t S = E n und S S t = E n sind beide äquivalent zu S ist invertierbar und S = S t (siehe Satz 2.6.6), also sind sie auch zueinander äquivalent. Somit ist die Äquivalenz (iii) (i) bewiesen. Nun zur Äquivalenz (iv) (ii): Die Spalten von S sind die Bilder der Standard-Orthonormalbasis des R n unter F S. Da eine orthogonale Abbildung offenbar eine Orthonormalbasis wieder auf eine Orthonormalbasis abbildet, ist die Implikation klar. Die umgekehrte Implikation folgt sofort aus Bemerkung 2..28: Wenn B aus den Spalten von S besteht, ist Φ B : R n R n nichts anderes als die Abbildung F S. Schließlich die Äquivalenz (iv) (v): Wir betrachten das kommutative Diagramm F V W Φ A Φ B. R n F S R m Die Abbildungen Φ A und Φ B sind nach orthogonale Abbildungen. Nun können wir für beide Richtungen die Bemerkung anwenden: wenn F S orthogonal ist, dann ist auch F = Φ B F S Φ A orthogonal. Wenn umgekehrt F als orthogonal vorausgesetzt ist, dann ist auch F S = Φ B F Φ A orthogonal. Wir wollen schließlich noch die orthogonalen Abbildungen in der Dimension 2 klassifizieren. Für höhere Dimensionen geschieht das in einem späteren Kapitel. Satz 2..3 Die orthogonalen 2 2-Matrizen sind genau die Matrizen der Gestalt ( ) ( ) a b a b () (2), wobei a 2 + b 2 =. b a b a

12 38 Lineare Algebra 26/7 c Rudolf Scharlau Dieses sind die Matrizen ( cos α sin α () R α = sin α cos α ) bzw. (2) S α = ( cos α sin α sin α cos α ), wobei α [, 2π) angenommen werden kann. Die Matrix R α beschreibt die Drehung um den Nullpunkt um den Winkel α, die Matrix S α beschreibt die Spiegelung an derjenigen Geraden durch den Nullpunkt, die mit der x -Achse den Winkel α/2 einschließt.

13 Index Abb, 25, 6 Abbildung, 9 bijektive, identische, injektive, lineare, 87 surjektive, abelsch, 26 abgeschlossen, 32 abzählbar, 2 Addition, 59 ähnlich, 7 Äquivalenzrelation, 47 Argument einer Abbildung, 9 einer komplexen Zahl, 38 assoziativ, Austauschsatz, 83 Automorphismus, 36 Basis, 79 Basiswechselmatrix, 5 Betrag einer komplexen Zahl, 37 Bezout, Lemma von, 22 bijektiv, Bild, 9 Bilinearform, 27 bsp:standardbasis, 79 Definitionsbereich, 9 Differenzmenge, 5 Dimension, 83 direkte Summe, 25 Distributivgesetz, 29 Division mit Rest, 7 Drehung, 38 Dreiecksungleichung, 38 Dualraum, 6 Durchschnitt, 5 Einheit in einem Ring, 3 Einselement, 29 endlich erzeugt, 8 Erzeugendensystem, 77 Erzeugnis, 63 euklidischer Vektorraum, 28 ggt, 2 gleichmächtig, 2 Gleichungssystem lineares, 68 größter gemeinsamer Teiler, 2 Gradformel, 42 Gruppe, 26 abelsche, 26 allgemeine lineare, 27 orthogonale, 36 symmetrische, 27 Hintereinanderausführung, Homomorphismus, 53 identische Abbildung, Imaginärteil, 35 Induktion vollständige, 6 injektiv, Inklusion, 5 echte, 5 invertierbar, 3 isomorph, 53, 9 Isomorphismus von Gruppen, 52 von Vektorräumen, 9 Kardinalität, 3 kartesisches Produkt, 7 Kern, 9 Körper, 3 kommutativ, 26, 29 Komplement eines Untervektorraumes, 25 orthogonales, 3 komplementär Untervektorraum, 25 komplexe Konjugation, 37 Komposition, kongruent, 47 konjugiert-komplex, 37 LGS, 68 linear unabhängig, 78 lineare Abbildung, 87 lineares Gleichungssystem, 68 Linearform, 27 Linearkombinationen, 63 39

14 4 Lineare Algebra 26/7 c Rudolf Scharlau linksinvers, 2 Mächtigkeit, 3 Matrix eines LGS, 68 erweiterte, 68 orthogonale, 37 Monom, 63 neutrales Element, 26 normiert Polynom, 42 Nullraum, 6 Nullstelle, 44 orthogonal -raum, 29 Abbildung, 35 Gruppe, 36 komplement, 3 Matrix, 37 Summe, 3 Vektoren, 29 Orthogonalbasis, 3 Orthogonalsystem, 3 Orthonormalbasis, 3 Orthonormalsystem, 3 Partition, 49 Permutation, 27 Pivotspalten, 93 Polarkoordinaten, 38 Polynom, 3, 4 Polynomring, 4 positiv definit, 27 Potenzmenge, 8 Produktmenge, 7 Rang einer linearen Abbildung, 2 einer Matrix, 94 eines LGS, 74 eines Vektorsystems, 93 Realteil, 35 rechtsinvers, 2 reflexiv, 47 Relation, 47 Restklassenring, 5 Ring, 29 von Untervektorräumen, 64 surjektiv, symmetrisch, 47 Bilinearform, 27 Gruppe, 27 Matrix, 28 symmetrische Gruppe, 27 teilerfremd, 2 Teilmenge, 5 echte, 5 Teilraum, 6 affiner, 7 Teilring, 33 transitiv, 47 transponierte Matrix, 37 Unbestimmte, 3, 42 Untergruppe, 32 Unterraum affiner, 7 Unterring, 33 Untervektorraum, 6 aufgespannter, 63 erzeugter, 63 komplementärer, 25 Vektor, 59 Vektorraum, 59 euklidischer, 28 Vektorraum-Isomorphismus, 9 Vektorsystem, 77 Vereinigung, 5 Verkettung, Verknüpfung, 25 äußere, 59 Vielfachheit einer Nullstelle, 44 Zeilenraum, 94 Zeilenstufenform, 93 Zielbereich, 9 Zielmenge, 9 Zykel, 27 Zyklus, 27 Skalarmultiplikation, 59 Skalarprodukt, 27 Spaltenraum, 94 Spiegelung, 38 Standardvektorraum, 6 Stufenform, 74 Summe direkte, 25

2.9 Skalarprodukte und euklidische Vektorräume

2.9 Skalarprodukte und euklidische Vektorräume Lineare Algebra 25-2 c Rudolf Scharlau 7 2.9 Skalarprodukte und euklidische Vektorräume Viele der in der Mathematik auftauchenden reellen Vektorräume tragen eine zusätzliche Struktur, nämlich ein sogenanntes

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch. Abbildungen Rechnen Matrizen Rechnen Vektoren Äquivalenzrelation Addition: Skalarmultiplikation: Skalarprodukt: Länge eines Vektors: Vektorprodukt (im ): i ii i ii v) gilt (Cauchy-Schwarz-Ungleichung):

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

Technische Universität München

Technische Universität München Technische Universität München Michael Schreier Ferienkurs Lineare Algebra für Physiker Vorlesung Montag WS 2008/09 1 komplexe Zahlen Viele Probleme in der Mathematik oder Physik lassen sich nicht oder

Mehr

für alle a, b, x, y R.

für alle a, b, x, y R. Algebra I 13. April 2008 c Rudolf Scharlau, 2002 2008 33 1.5 Ringe Definition 1.5.1 Ein Ring ist eine Menge R zusammen mit zwei Verknüpfungen + und, genannt Addition und Multiplikation, für die folgendes

Mehr

Skalarprodukt, Norm & Metrik

Skalarprodukt, Norm & Metrik Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

1 Linearkombinationen

1 Linearkombinationen Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Linearkombinationen Unter einer Linearkombination versteht man in der linearen Algebra einen Vektor, der sich durch

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

2.4 Matrizen und Lineare Abbildungen

2.4 Matrizen und Lineare Abbildungen Lineare Algebra I WS 2015/16 c Rudolf Scharlau 73 2.4 Matrizen und Lineare Abbildungen Zum Schluss von Abschnitt 2.2 hatten wir Matrizen eingeführt, und zwar im Zusammenhang mit der abgekürzten Schreibweise

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 23. Mai 2016 Stefan Ruzika 7: Bild, Faser, Kern 23. Mai 2016 1 / 11 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume 4 Basis

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

Vektorräume. Kapitel Definition und Beispiele

Vektorräume. Kapitel Definition und Beispiele Kapitel 3 Vektorräume 3.1 Definition und Beispiele Sei (V,,0) eine abelsche Gruppe, und sei (K, +,, 0, 1) ein Körper. Beachten Sie, dass V und K zunächst nichts miteinander zu tun haben, deshalb sollte

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof Dr H Brenner Osnabrück SS 26 Lineare Algebra und analytische Geometrie II Vorlesung 2 Orthogonalität Mit dem Skalarprodukt kann man die Eigenschaft zweier Vektoren, aufeinander senkrecht zu stehen,

Mehr

11.2 Orthogonalität. Wintersemester 2013/2014

11.2 Orthogonalität. Wintersemester 2013/2014 Universität Konstanz Fachbereich Mathematik und Statistik Wintersemester 2013/2014 Markus Scheighofer Lineare Algebra I 11.2 Orthogonalität Definition 11.2.1. Seien V ein K-Vektorraum mit Skalarprodukt

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition) Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

5 Lineare Abbildungen

5 Lineare Abbildungen 5 Lineare Abbildungen Pink: Lineare Algebra HS 2014 Seite 56 5 Lineare Abbildungen 5.1 Definition Gegeben seien Vektorräume U, V, W über einem Körper K. Definition: Eine Abbildung f : V W heisst K-linear,

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 15.11.2013 Alexander Lytchak 1 / 12 Erinnerung Eine Abbildung f : V W zwischen reellen Vektorräumen ist linear, wenn

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Kapitel 5. Vektorräume mit Skalarprodukt

Kapitel 5. Vektorräume mit Skalarprodukt Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der

Mehr

Einführung in die Grundlagen der Numerik

Einführung in die Grundlagen der Numerik Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Normierter Vektorraum Sei X ein R-Vektorraum. Dann heißt

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

14 Skalarprodukt Abstände und Winkel

14 Skalarprodukt Abstände und Winkel 4 Skalarprodukt Abstände und Winkel Um Abstände und Winkel zu definieren benötigen wir einen neuen Begriff. Zunächst untersuchen wir die Länge eines Vektors v. Wir schreiben dafür v und sprechen auch von

Mehr

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Abbildungen. i=0 c ix i n. K n K m Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

1.3 Gruppen. Algebra I 9. April 2008 c Rudolf Scharlau,

1.3 Gruppen. Algebra I 9. April 2008 c Rudolf Scharlau, Algebra I 9. April 2008 c Rudolf Scharlau, 2002 2008 18 1.3 Gruppen Der Begriff der Gruppe ordnet sich in gewisser Weise dem allgemeineren Konzept der Verknüpfung (auf einer Menge) unter. So ist zum Beispiel

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lineare Algebra Zusammenfassung

Lineare Algebra Zusammenfassung Lineare Algebra Zusammenfassung Gruppen, Körper, Vektorräume Gruppen Def.: Eine Gruppe (G, )besteht aus einer nicht-leeren Menge G und einer Verknüpfung zwischen Elementen dieser Gruppe. Folgende Eigenschaften

Mehr

L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren...

L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren... L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren... (benötigt neue Struktur über Vektorraumaxiome hinaus) Sei Länge von nach Pythagoras: Länge quadratisch in Komponenten! - Für : Skalarprodukt

Mehr

Jürgen Hausen Lineare Algebra I

Jürgen Hausen Lineare Algebra I Jürgen Hausen Lineare Algebra I 2. korrigierte Auflage Shaker Verlag Aachen 2009 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren...

L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren... L3 Euklidische Geometrie: Längen, Winkel, senkrechte Vektoren... (benötigt neue Struktur über Vektorraumaxiome hinaus) Sei Länge von nach Pythagoras: Länge quadratisch in Komponenten! - Für : Skalarprodukt

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat.

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat. 1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat. übliche Beispiele: Ort r = r( x; y; z; t ) Kraft F Geschwindigkeit

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

8 Lineare Abbildungen und Matrizen

8 Lineare Abbildungen und Matrizen 8 Lineare Abbildungen und Matrizen 8.1 Lineare Abbildungen Wir beschäftigen uns nun mit Abbildungen zwischen linearen Räumen. Von besonderem Interesse sind Abbildungen, die die Struktur der linearen Räume

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Wiederholung: lineare Abbildungen

Wiederholung: lineare Abbildungen Wiederholung: lineare Abbildungen Def Es seien (V,+, ) und (U, +, ) zwei Vektorräume Eine Abbildung f : V U heißt linear, falls für alle Vektoren v 1, v 2 V und für jedes λ R gilt: (a) f (v 1 + v 2 ) =

Mehr

2.9 Die komplexen Zahlen

2.9 Die komplexen Zahlen LinAlg II Version 1 3. April 2006 c Rudolf Scharlau 121 2.9 Die komplexen Zahlen Die komplexen Zahlen sind unverzichtbar für nahezu jede Art von höherer Mathematik. Systematisch gehören sie zum einen in

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 205/206 Lineare Algebra und analytische Geometrie I Vorlesung 9 Basiswechsel Wir wissen bereits, dass in einem endlichdimensionalen Vektorraum je zwei Basen die gleiche Länge

Mehr

3.5 Duale Vektorräume und Abbildungen

3.5 Duale Vektorräume und Abbildungen 3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung

Mehr

2.2 Kern und Bild; Basiswechsel

2.2 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare

Mehr

= ( n x j x j ) 1 / 2

= ( n x j x j ) 1 / 2 15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors

Mehr

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Lineare Algebra I - 26. Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Donnerstag 8.12.: 8:30 Uhr - Vorlesung 10:15 Uhr - große Übung / Fragestunde Klausur: Mittwoch, 14.12. 14:15 Uhr, A3 001 Cauchy-Schwarz

Mehr

Prüfung Lineare Algebra 2

Prüfung Lineare Algebra 2 1. Überprüfen Sie die folgenden Aussagen: (1) Zwei reelle symmetrische Matrizen sind genau dann ähnlich, wenn sie die gleiche Signatur haben. (2) Jede symmetrische Matrix ist kongruent zu einer Diagonalmatrix,

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Symmetrische

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra

Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra A. Filler[-3mm] Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra, Teil 8 Folie 1 /27 Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra 8. Das Skalarprodukt, metrische

Mehr

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte Technische Universität München, Fakultät für Physik Ferienkurs - ineare Algebra Hanna Schäfer 03. März 04 0. inearität. f : M N, x : y = f(x) Merkinhalte. f(x + λy) = f(x) + λf(y), x, y V, λ K 3. ineare

Mehr

1.1 Mengen und Abbildungen

1.1 Mengen und Abbildungen Lineare Algebra I WS 2015/16 c Rudolf Scharlau 3 1.1 Mengen und Abbildungen In diesem Abschnitt stellen wir die grundlegende mathematische Sprache und Notation zusammen, die für jede Art von heutiger Mathematik

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

2.3 Lineare Abbildungen und Matrizen

2.3 Lineare Abbildungen und Matrizen 2.3. LINEARE ABBILDUNGEN UND MATRIZEN 89 Bemerkung Wir sehen, dass die Matrix à eindeutig ist, wenn x 1,...,x r eine Basis ist. Allgemeiner kann man zeigen, dass sich jede Matrix mittels elementarer Zeilenumformungen

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

1 Eigenschaften von Abbildungen

1 Eigenschaften von Abbildungen Technische Universität München Christian Neumann Ferienkurs Lineare Algebra für Physiker Vorlesung Dienstag WS 2008/09 Thema des heutigen Tages sind zuerst Abbildungen, dann spezielle Eigenschaften linearer

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

x 2 + y 2 = f x y = λ

x 2 + y 2 = f x y = λ Lineare Abbildungen Def Es seien (V 1,+, ) und (V 2,+, ) zwei Vektorräume Eine Abbildung f : V 1 V 2 heißt linear, falls für alle Vektoren u,v V 1 und für jedes λ R gilt: f (u + v) = f (u) + f (v), f (λu)

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 2014/2015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 10 Abgabetermin: Freitag, 16.01.2015, 11 Uhr Auf diesem

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Der Rangsatz für lineare Abbildungen

Der Rangsatz für lineare Abbildungen Der Rangsatz für lineare Abbildungen Satz Sei f : V W eine lineare Abbildung Dann gilt dim V = dim Kern(f) + dim Bild(f), also gleichbedeutend dim Kern(f) = dim V rg(f) Da uns in der Regel bei gegebenem

Mehr

Grundlagen der Mathematik 1

Grundlagen der Mathematik 1 Fachbereich Mathematik Sommersemester 2010, Blatt 14 Thomas Markwig Stefan Steidel Grundlagen der Mathematik 1 Die Lösungen müssen nicht eingereicht werden und werden auch nicht korrigiert. Die Aufgaben

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

3 Lineare Abbildungen und Matrizen

3 Lineare Abbildungen und Matrizen 3 Lineare Abbildungen und Matrizen Definition 3.1. Es seien V und W zwei Vektorräume über demselben Zahlkörper k. Eine Abbildung heisst linear, falls gilt i) [ λ k ] [ v V ] [ f (λ v) = λ f ( v) ] ii)

Mehr

Inhaltsverzeichnis. I Lineare Gleichungssysteme und Matrizen 1. Vorwort

Inhaltsverzeichnis. I Lineare Gleichungssysteme und Matrizen 1. Vorwort Vorwort V I Lineare Gleichungssysteme und Matrizen 1 1 Der Begriff des Körpers 3 1.1 Mengen 3 1.2 Köiperaxiome 3 1.3 Grundlegende Eigenschaften von Körpern 5 1.4 Teilkörper 7 1.5 Aufgaben 8 1.5.1 Grundlegende

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K). Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 05.11.2013 Alexander Lytchak 1 / 14 Linearkombinationen Definition Es sei V ein reeller Vektorraum. Es sei (v i ) i

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? 1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum, 2 Vektorräume In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa Unterraum, Linearkombination, lineare Unabhängigkeit und Erzeugendensystem.

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Ergänzung zum HM Tutorium

Ergänzung zum HM Tutorium Ergänzung zum HM Tutorium Patrik Hlobil Niko Kainaris Dieses Dokument erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit. Es stellt keine Vorlesungszusammenfassung dar, sondern soll euch lediglich

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein

Mehr

Lösung Semesterendprüfung (Nachprüfung)

Lösung Semesterendprüfung (Nachprüfung) MLAE Mathematik: Lineare Algebra für Ingenieure Frühlingssemester 6 Dr. Christoph Kirsch ZHAW Winterthur Lösung Semesterendprüfung (Nachprüfung Aufgabe : Aufgabe : a Gemäss Def. der Vorlesung müssen wir

Mehr

1 Mengen und Abbildungen

1 Mengen und Abbildungen 1 MENGEN UND ABBILDUNGEN 1 1 Mengen und Abbildungen Wir starten mit einigen einführenden Definitionen und Ergebnissen aus der Theorie der Mengen und Abbildungen, die nicht nur Grundlage der Linearen Algebra

Mehr