Spline-Interpolation

Größe: px
Ab Seite anzeigen:

Download "Spline-Interpolation"

Transkript

1 Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November / 38

2 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation 4 Kubische Spline-Interpolation Tim Schmölzer Spline-Interpolation 20 November / 38

3 Grenzen der Polynominterpolation (11) Beispiel: Runge n = 4 20 n = y 10 y K4 K x K05 K4 K x K05 Abbildung: Polynom-Interpolation der Rungefunktion mit n = 4 und n = 10 Tim Schmölzer Spline-Interpolation 20 November / 38

4 Bezeichnungen (12) Bezeichnungen Stützstellen: (τ i ) n i=1, streng monoton wachsend Knotenfolge: (t i ) n+k i=1, monoton wachsend, mit t i < t i+k i Vielfachheiten µ(τ i ) < k i Splinefunktion: S(x) = n j=1 c jn j,k (x) (13) Bemerkung Wenn Verwechslungen ausgeschlossen sind, bezeichnen wir N j,k kurz mit N j Tim Schmölzer Spline-Interpolation 20 November / 38

5 Das Interpolationsproblem (14) Definition Die folgende Problemstellung bezeichnen wir künftig als das Interpolationsproblem, kurz: IP Zu gegebenen Stützstellen τ 1,, τ n und Daten f (τ 1 ),, f (τ n ) bestimme die Koeffizienten c 1,, c n so, dass S(τ i ) = n c j N j (τ i ) = f (τ i ) j=1 Tim Schmölzer Spline-Interpolation 20 November / 38

6 Die Kollokationsmatrix (21) Definition Die Matrix N 1,k (τ 1 ) N n,k (τ 1 ) A := (N j,k (τ i )) n i,j=1 := N 1,k (τ n ) N n,k (τ n ) nennen wir Kollokationsmatrix zum Interpolationsproblem IP (22) Bemerkung c = (c 1,, c n ) löst das IP genau dann, wenn c Lösung des linearen Gleichungssystems Ax = f (τ) ist Insbesondere ist das Interpolationsproblem genau dann eindeutig lösbar, wenn A invertierbar ist Tim Schmölzer Spline-Interpolation 20 November / 38

7 Ein notwendiges Kriterium (23) Lemma Ist das Interpolationsproblem eindeutig lösbar, so folgt: τ j (t j, t j+k ) für alle 1 j n Beweis Angenommen τ j / (t j, t j+k ) für ein j, etwa t j+k τ j Dann gilt für alle r j s auch t r+k τ s Wegen des lokalen Trägers der B-Splines: N r,k (τ s ) = 0 Die ersten j Spaltenvektoren der Kollokationsmatrix sind also linear abhängig Die Kollokationsmatrix ist nicht invertierbar, das IP also nicht eindeutig lösbar Tim Schmölzer Spline-Interpolation 20 November / 38

8 Der Satz von Schoenberg und Whitney (1) (24) Satz (Schoenberg-Whitney) Das Interpolationsproblem ist eindeutig lösbar τ j (t j, t j+k ) für alle 1 j n Anmerkungen zum Beweis Wir müssen nur noch zeigen Die andere Richtung war (23) Blockdreiecksmatrizen sind invertierbar Diagonalblöcke sind invertierbar Satz von Rolle: Ist eine Funktion f auf [a, b] stetig und auf (a, b) differenzierbar und gilt f (a) = f (b), so existiert ein x 0 (a, b) mit f (x 0 ) = 0 Tim Schmölzer Spline-Interpolation 20 November / 38

9 Die Rolle der Kollokationsmatrix (31) Erinnerung Es gilt C 1 k c c j N j,k c (32) Bemerkung Es gilt c = A 1 f (τ) A 1 f (τ) A 1 f ; die Stabilität der Interpolation ist also umso besser, je kleiner A 1 wird (33) Bemerkung Auch der Einfluss von f (τ i ) auf die Interpolierende hängt quantitativ von A 1 ab Tim Schmölzer Spline-Interpolation 20 November / 38

10 Ein technisches Lemma (34) Lemma Es sei (a i ) i 0 eine Folge, a i 0 für alle i Existieren dann c > 0, m N mit a i c a k m, dann gilt die Abschätzung i k a k ( c ) k c + 1 m i 0 a i Tim Schmölzer Spline-Interpolation 20 November / 38

11 Der Satz von Demko (35) Satz (Demko) Es sei A = (a ij ) i,j C n n eine invertierbare Bandmatrix mit Bandbreite m Es gelte A q 1 und A 1 q µ 1 für ein 1 q und ein µ > 0 Dann existiert eine nur von der Bandbreite m und µ abhängige Konstante c > 0 und ein λ [0, 1) mit (A 1 ) i,j c λ i j für alle i, j Bemerkungen zum Beweis A q = A q, wobei A = (ā ji ) i, j die Adjungierte von A ist q 1 Da die Adjungierte immer noch eine Bandmatrix mit Bandbreite m ist, genügt es den Fall 1 q 2 zu betrachten Tim Schmölzer Spline-Interpolation 20 November / 38

12 Minoren (1) (36) Definition Sei B C n n, r N, I = (i 1 < < i r ), J = (j 1 < < j r ) Der Minor ( ) ( ) i1,, i B r I := B := det (B j 1,, j r J i,j ) i I,j J ist die Determinante derjenigen Untermatrix von B, die entsteht, wenn man alle Zeilen i / I und alle Spalten j / J streicht (37) Beispiel ( ) ( ) B = , B = det Tim Schmölzer Spline-Interpolation 20 November / 38

13 Minoren (2) (38) Bemerkung Ein Minor der Kollokationsmatrix ist nur dann ungleich Null, wenn die dazugehörigen Diagonalelemente alle ungleich Null sind Beweis Die Argumentation gleicht der aus Lemma (21), wobei man hier Untermatrizen der Kollokationsmatrix betrachtet Tim Schmölzer Spline-Interpolation 20 November / 38

14 Total positive und schachbrettartige Matrizen (39) Defintion Eine Matrix B heisst total positiv, wenn alle Minoren nichtnegativ sind schachbrettartig, wenn ( 1) i+j B i,j 0 für alle i, j (310) Lemma Ist B total positiv und invertierbar, dann ist B 1 schachbrettartig Beweis Es sei I j := (1,, j 1, j + 1,, n) Dann benutze die Cramersche Regel: (B 1 ) i,j = ( 1) i+j B ( Ij I i det B Tim Schmölzer Spline-Interpolation 20 November / 38 )

15 Eine erste Abschätzung (311) Korollar Gilt für eine total positive invertierbare Matrix B und einen Vektor x = (x 1,, x n ) T d := min( 1) i (Bx) i > 0, i so gilt auch die Abschätzung B 1 x d Tim Schmölzer Spline-Interpolation 20 November / 38

16 Beweis der Abschätzung Beweis x i = (B 1 ) i,j (Bx) j j = ( 1) j (B 1 ) i,j ( 1) j (Bx) j j = (B 1 ) i,j ( 1) j (Bx) j j j (B 1 ) i,j d max x i (B 1 ) i,j d (B 1 ) i,j x d Tim Schmölzer Spline-Interpolation 20 November / 38

17 Verfeinerungen von Knotenfolgen (312) Definition Eine Knotenfolge ist eine Verfeinerung der Knotenfolge T, wenn T eine Teilfolge von ist (313) Lemma Es sei = (δ i ) N+k i=1 eine Verfeinerung der Knotenfolge Θ = (θ i ) n+k i=1 ; Insbesondere sei θ j = δ l θ j+k = δ m+k (und m j, da Θ ) Dann sind die B-Splines N j,k,θ von der Form N j,k,θ = α j,k (i)n i,k, und es gilt: supp α j [l, n], α j,k 0 wobei (δ l,, δ n+k ) der kleinste Abschnitt von ist, der die Punkte θ j,, θ j+k enthält Tim Schmölzer Spline-Interpolation 20 November / 38

18 Die Totalpositivität der Kollokationsmatrix (314) Satz Die Kollokationsmatrix A = (N j,k,t (τ i )) i,j ist total positiv Beweis (1) Für geeignetes J = (j 1 < < j r ) ist ( jeder Minor ) der 1,, r Kollokationsmatrix von der Form A, oder kann durch J Umnummerierung der τ j auf diese Form gebracht werden Wir verfeinern die Knotenfolge durch Hinzufügen eines Knotens δ ν zu := (, t ν 1, δ ν, t ν, ) N j,k,t = α j,k (i)n i,k, supp α j,k [j, j + 1], α j 0 Tim Schmölzer Spline-Interpolation 20 November / 38

19 Die Totalpositivität der Kollokationsmatrix (2) Beweis (2) Aus der Spaltenlinearität der Determinante erhalten wir: ( ) 1,, r A = det( N J j ) ( ) = det α j,k (i)n i,k, i = i 1 i r α j1,k(i 1 ) α jr,k(i r ) A ( 1,, r i 1,, i r ), wobei ( ) A 1,, r = det( N i 1,, i ij,k, ) r Tim Schmölzer Spline-Interpolation 20 November / 38

20 Die Totalpositivität der Kollokationsmatrix (3) Beweis (3) Die α jµ,k, 1 µ < n, sind nur dann ungleich 0, wenn i µ [j µ, j µ + 1] supp α jµ Da J geordnet ist gilt i µ i µ+1 Es genügt den Fall i µ < i µ+1 zu betrachten Wir erhalten also: ( ) 1,, r A = J I geordnet ( ) α J (I )A 1,, r I Wiederholtes Hinzufügen eines Knotens liefert das gleiche Ergebnis für beliebige Verfeinerungen Tim Schmölzer Spline-Interpolation 20 November / 38

21 Die Totalpositivität der Kollokationsmatrix (4) Beweis (4) Sei U eine Verfeinerung von T, sodass in U mindestens k Knoten zwischen τ i und τ i+1 liegen Dann folgt: N j,k,u (τ i ) 0 N j,k,u (τ j ) = 0 für i j ( ) 1,, r Jede Spalte von A hat höchstens einen Eintrag ungleich 0 I Dieser ( Eintrag ) muss auf der Diagonalen liegen, wenn 1,, r A 0 I ( ) 1,, r Dann gilt aber auch A = r I µ=1 N i µ (τ µ ) > 0 ( ) 1,, r In jedem Fall ist A 0 und daraus folgt die Behauptung I Tim Schmölzer Spline-Interpolation 20 November / 38

22 Grenzbetrachtung (315) Bemerkung Die Grösse von A 1 hängt sehr stark von t und τ ab Wir betrachten die Grenzfälle τ j τ j 0? { t j t j+k A 1 Tim Schmölzer Spline-Interpolation 20 November / 38

23 Eine Abschätzung nach unten Herleitung Es sei g := Pf := c j N j der Spline mit g(τ i ) = ( 1) i Dann gilt A 1 = c ZWS liefert die Existenz eines ξ [τ i, τ i+1 ] mit g (ξ) = ( 1) i+1 2 τ i = g(τ i) τ i = (k 1) c j c j 1 N j,k 1 (ξ) t j+k 1 t j ( ) 1 (k 1) 2 c max N j,k 1 (ξ) 0 t j+k 1 t j Tim Schmölzer Spline-Interpolation 20 November / 38

24 Eine Abschätzung nach unten (2) Direkte Folgerung daraus ist die folgende Abschätzung: (316) Satz A 1 1 k 1 max i { } tj+k 1 t j min [t j, t j+k 1 ] [τ i, τ i+1 ] j τ i+1 τ i Tim Schmölzer Spline-Interpolation 20 November / 38

25 Kubische Spline-Interpolation Grundsituation Interpolation mit Splines der Ordnung k = 4 an Daten f (τ 1 ),, f (τ n ), wobei a = τ 1 < < τ n = b eine Zerlegung des Intervalls [a, b] ist Die Interpolante S soll in jedem [τ j, τ j+1 ] mit einem kubischen Polynom übereinstimmen Tim Schmölzer Spline-Interpolation 20 November / 38

26 Interpolationsbedinungen Grundsituation (2) Das i-te Polynomstück P i soll die folgenden Interpolationsbedingungen erfüllen P i (τ i ) = f (τ i ), P i (τ i+1 ) = f (τ i+1 ) P i (τ i) = s i, sind P i (τ i+1) = s i+1 wobei s 1,, s n hier freie Parameter Unabhängig von diesen Steigungen stimmt S in den τ j mit f überein und ist auf [a, b] stetig differenzierbar Tim Schmölzer Spline-Interpolation 20 November / 38

27 Herleitung der kubischen Spline-Interpolation Herleitung Newtonform: P i (x) =P i (τ i ) + (x τ i )[τ i, τ i ]P i + (x τ i ) 2 [τ i, τ i, τ i+1 ]P i + (x τ i ) 2 (x τ i+1 )[τ i, τ i, τ i+1, τ i+1 ]P i Das Schema der dividierten Differenzen liefert P i (x) = c 1,i + c 2,i (x τ i ) + c 3,i (x τ i ) 2 + c 4,i (x τ i ) 3 c 1,i = P i (τ i ) = f (τ i ), c 2,i = P i (τ i ) = s i, c 3,i = ([τ i, τ i+1 ]f s i ) τ i c 4,i τ i, c 4,i = 1 6 P i (τ i ) = s i + s i+1 2[τ i, τ i+1 ]f ( τ i ) 2 Tim Schmölzer Spline-Interpolation 20 November / 38

28 Kubische C 2 -Interpolation Bestimmung der s 2,, s n 1 durch C 2 -Glattheitsforderung P i 1 (τ i) = P i (τ i) Einsetzen der vorherigen Gleichungen liefert: s i 1 τ i + s i 2( τ i 1 + τ i ) + s i+1 τ i 1 = b i Die rechte Seite ist nicht von den s i abhängig Sind s 1 und s n schon bestimmt, erhalten wir ein LGS in Tridiagonalgestalt Tim Schmölzer Spline-Interpolation 20 November / 38

29 Randbedingungen (41) Definition Vollständige Interpolation: s 1 = f (τ 1 ) und s n = f (τ n ) Natürliche Randbedingungen: S (τ 1 ) = S (τ 2 ) = 0 not-a-knot-bedingungen: P 1 = P 2 und P n 1 = P n Tim Schmölzer Spline-Interpolation 20 November / 38

30 Approximation der Rungefunktion mit Spline-Interpolation (42) Beispiel: Runge y 06 y K4 K x K02 K4 K x K02 Abbildung: kubische C 2 -Interpolation der Rungefunktion (not-a-knot-randbedingungen) an 5 bzw 10 Stützstellen Tim Schmölzer Spline-Interpolation 20 November / 38

31 Die Krümmung einer Kurve (43) Definition Für den Graphen eine Funktion g : [a, b] R ist die Krümmung im Punkt (x, g(x)) definiert durch: κ g (x) = (1 + g (x) 2 ) 3 2 (44) Bemerkung Die Krümmung beschreibt tatsächlich die Stärke der Richtungsänderung über die Bogenlänge Die obige Charakterisierung lässt sich mit einigen differentialgeometrischen Hilfsmitteln (Frenet-Gleichungen) herleiten g Tim Schmölzer Spline-Interpolation 20 November / 38

32 Eine Extremaleigenschaft (45) Bemerkung Den Graph der Funktion kann man sich als eine dünne Holzlatte vorstellen Deren Biegeenergie ist: E = 1 2 a κ g (x) 2 dx Für kleine Auslenkungen: E 1 b 2 a g (x) 2 dx (46) Satz Es sei S die kubische Spline-Interpolierende zu den Daten von oben mit natürlicher oder vollständiger Interpolation an den Rändern Dann gilt: b für jede andere Interpolierende f a b S (x) 2 dx b a f (x) 2 dx Tim Schmölzer Spline-Interpolation 20 November / 38

33 Grenzen der Spline-Interpolation x Tim Schmölzer Spline-Interpolation 20 November / 38

34 Zusammenfassung Ein wichtiges Werkzeug: Die Kollokationsmatrix eines Interpolationsproblems Existenz und Eindeutigkeit: Der Satz von Schoenberg und Whitney Stabilitätsanalyse: Die Rolle von A 1 Totalpositivität der Kollokationsmatrix In der Praxis: Kubische C 2 -Interpolation Herkunft des Namen Spline: Eine Extremaleigenschaft für kubische Spline-Interpolierende Tim Schmölzer Spline-Interpolation 20 November / 38

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen KAPITEL 3 INTERPOLATION UND APPROXIMATION 4 33 Newtonsche Interpolationsformel / Dividierte Differenzen Das Verfahren von Neville ist unpraktisch, wenn man das Polynom selbst sucht oder das Polynom an

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

NUMERISCHE MATHEMATIK II 1. (Studiengang Mathematik) Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau WS 2001/2002

NUMERISCHE MATHEMATIK II 1. (Studiengang Mathematik) Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau WS 2001/2002 NUMERISCHE MATHEMATIK II 1 (Studiengang Mathematik) Prof Dr Hans Babovsky Institut für Mathematik Technische Universität Ilmenau WS 2001/2002 1 Korrekturen, Kommentare und Verbesserungsvorschläge bitte

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Polynominterpolation

Polynominterpolation Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses

Mehr

y = A(x) y + b(x). (1) y = A(x) y (2)

y = A(x) y + b(x). (1) y = A(x) y (2) 73 5.2 Lineare Systeme Sei weiterhin IK = C oder IK = IR. Seien = I IR ein offenes Intervall, x 0 I, y 0 IK n, A: I IK n n und b: I IK n stetige matrix- bzw vektorwertige Funktionen. Wir betrachten komplexe

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Quadratische Matrizen

Quadratische Matrizen Quadratische Matrizen (n n)-matrizen heißen quadratische Die entsprechenden linearen Abbildungen sind laut Definition Endomorphismen des R n (weil f A : R n R n ) Das Produkt von (n n)- Matrizen ist auch

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Kapitel 17. Determinanten

Kapitel 17. Determinanten Kapitel 17. Determinanten Vorschau: Determinanten Es gibt drei Problemfelder, für die Determinanten von großem Nutzen sind: die formelmäßige Überprüfung der linearen Unabhängigkeit eines Systems von n

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

Diagonalisieren. Nikolai Nowaczyk  Lars Wallenborn Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung 43 Permutationen Definition Eine Permutation der Elementen {,, n} ist eine bijektive Abbildung σ : {,,n} {,,n} Es ist leicht zu sehen, dass die Hintereinanderführung zweier Permutationen ergibt wieder

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Analysis I. 4. Beispielklausur mit Lösungen

Analysis I. 4. Beispielklausur mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Zusammenfassung zur Konvergenz von Folgen

Zusammenfassung zur Konvergenz von Folgen Zusammenfassung zur Konvergenz von Folgen. Definition des Konvergenzbegriffs Eine Folge reeller Zahlen a n n heißt konvergent gegen a in Zeichen a n = a, falls gilt > 0 n 0 n n 0 : an a < Hinweise: Bei

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

15 Hauptsätze über stetige Funktionen

15 Hauptsätze über stetige Funktionen 15 Hauptsätze über stetige Funktionen 15.1 Extremalsatz von Weierstraß 15.2 Zwischenwertsatz für stetige Funktionen 15.3 Nullstellensatz von Bolzano 15.5 Stetige Funktionen sind intervalltreu 15.6 Umkehrfunktionen

Mehr

Inhaltsverzeichnis INHALTSVERZEICHNIS 1

Inhaltsverzeichnis INHALTSVERZEICHNIS 1 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Die Parabel 2 1.1 Definition................................ 2 1.2 Bemerkung............................... 3 1.3 Tangenten................................ 3 1.4

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Abbildungen. i=0 c ix i n. K n K m Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Wirtschaftsmathematik Formelsammlung

Wirtschaftsmathematik Formelsammlung Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2015 (a + b) 2 = a 2 +2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) =a 2 b 2 Fakultät (Faktorielle) n! =1 2 3 4 (n 1) n Intervalle Notation

Mehr

Themen Lagrange-Interpolation Hermite-Interpolation. Splines. Bézier-Kurven. 5 Interpolation. Interpolation Die Lagrangesche Interpolationsaufgabe

Themen Lagrange-Interpolation Hermite-Interpolation. Splines. Bézier-Kurven. 5 Interpolation. Interpolation Die Lagrangesche Interpolationsaufgabe 5 Themen Lagrange- Bézier-Kurven saufgabe sformel Der sfehler 5.1 saufgabe È n = Raum der reellen Polynome vom Grad n. saufgabe sformel Der sfehler 5.1 saufgabe È n = Raum der reellen Polynome vom Grad

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr

Vervollständigung Lateinischer Quadrate

Vervollständigung Lateinischer Quadrate Vervollständigung Lateinischer Quadrate Elisabeth Schmidhofer 01.12.2013 Inhaltsverzeichnis 1 Vorwort 3 2 Einleitung 4 2.1 Beispele.............................................. 4 3 Lateinische Quadrate

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016 Übungen zu Einführung in die Numerische Mathematik (VE) Sommersemester 6 Prof. Dr. Martin Rumpf Pascal Huber Sascha Tölkes Übungsblatt 8 Abgabe:.6.6 Aufgabe 5 (Elliptisches Randwertproblem auf einem Ring)

Mehr

Matrizen und Determinanten

Matrizen und Determinanten Matrizen und Determinanten 1 Matrizen und Determinanten 1 Einführung in den Matrizenbegriff Zur Beschreibung und Lösung vieler physikalischer Probleme ist die Vektorrechnung vonnöten Durch Verwendung von

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Lösungsskizzen zur Klausur

Lösungsskizzen zur Klausur sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie

Mehr

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung

Mehr

Interpolation. Nadine Losert. Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr.

Interpolation. Nadine Losert. Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr. Interpolation Nadine Losert Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: Nachdem wir in den vorherigen Vorträgen verschiedene

Mehr

Lineare Algebra KAPITEL III. 12 Matrizen und der Gauß-Algorithmus. I) Matrizen

Lineare Algebra KAPITEL III. 12 Matrizen und der Gauß-Algorithmus. I) Matrizen KAPITEL III Lineare Algebra 12 Matrizen und der Gauß-Algorithmus I Matrizen Definition 121 Matrizen und der R n Es seien m,n 1 zwei positive ganze Zahlen a Eine m n-matrix über R ist ein rechteckiges Schema

Mehr

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe

Mehr

Funktionsgrenzwerte, Stetigkeit

Funktionsgrenzwerte, Stetigkeit Funktionsgrenzwerte, Stetigkeit Häufig tauchen in der Mathematik Ausdrücke der Form lim f(x) auf. x x0 Derartigen Ausdrücken wollen wir jetzt eine präzise Bedeutung zuweisen. Definition. b = lim f(x) wenn

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A 133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen.

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen. 1 Albert Ludwigs Universität Freiburg Abteilung Empirische Forschung und Ökonometrie Mathematik für Wirtschaftswissenschaftler Dr. Sevtap Kestel Winter 2008 Kapitel 16 Determinanten und inverse Matrizen

Mehr

Spezialgebiet Mathematik(Christian Behon ) 1. Matrizen. Kapitel 1 Definitionen und Herleitung von Matrizen. Kapitel 2 Matrizenoperation

Spezialgebiet Mathematik(Christian Behon ) 1. Matrizen. Kapitel 1 Definitionen und Herleitung von Matrizen. Kapitel 2 Matrizenoperation . Inhaltsverzeichnis.............. Spezialgebiet Mathematik(Christian Behon ) 1 Matrizen Kapitel 1 Definitionen und Herleitung von Matrizen 1.1 Was sind Matrizen 1.2 Arten von Matrizen Kapitel 2 Matrizenoperation

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Kapitel 12. Lineare Abbildungen und Matrizen

Kapitel 12. Lineare Abbildungen und Matrizen Kapitel 12 Lineare Abbildungen und Matrizen Lineare Abbildungen f : R n R m Wir wissen schon: Eine lineare Abbildung f : R n R m ist eindeutig durch ein n-tupel von Vektoren v 1, v 2,, v n des R m bestimmt

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A.

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A. Lineare Hülle Def A sei eine nichtleere Teilmenge des Vektorraums (V,+, ) Die lineare Hülle von A (Bezeichung: span(a)) ist die Menge aller Linearkombinationen der Elemente aus A { k } span(a) := λ i v

Mehr

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme 52 II Lineare Gleichungssysteme II Lineare Gleichungssysteme 10 Matrizen und Vektoren 52 11 Der Gaußsche Algorithmus 58 12 Basen, Dimension und Rang 62 13 Reguläre Matrizen 66 14 Determinanten 69 15 Skalarprodukte

Mehr

35 Stetige lineare Abbildungen

35 Stetige lineare Abbildungen 171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

Übungen zur Vorlesung MATHEMATIK II

Übungen zur Vorlesung MATHEMATIK II Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich Lineare Algebra U Stammbach Professor an der ETH-Zürich I Vektorräume Kapitel I Vektorräume 1 I1 Lineare Gleichungssysteme 1 I2 Beispiele von Vektorräumen 7 I3 Definition eines Vektorraumes 8 I4 Linearkombinationen,

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Lösungen zum 5. Aufgabenblatt

Lösungen zum 5. Aufgabenblatt SS 2012, Lineare Algebra 1 Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige

Mehr