Spline-Interpolation
|
|
- Christin Bader
- vor 6 Jahren
- Abrufe
Transkript
1 Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November / 38
2 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation 4 Kubische Spline-Interpolation Tim Schmölzer Spline-Interpolation 20 November / 38
3 Grenzen der Polynominterpolation (11) Beispiel: Runge n = 4 20 n = y 10 y K4 K x K05 K4 K x K05 Abbildung: Polynom-Interpolation der Rungefunktion mit n = 4 und n = 10 Tim Schmölzer Spline-Interpolation 20 November / 38
4 Bezeichnungen (12) Bezeichnungen Stützstellen: (τ i ) n i=1, streng monoton wachsend Knotenfolge: (t i ) n+k i=1, monoton wachsend, mit t i < t i+k i Vielfachheiten µ(τ i ) < k i Splinefunktion: S(x) = n j=1 c jn j,k (x) (13) Bemerkung Wenn Verwechslungen ausgeschlossen sind, bezeichnen wir N j,k kurz mit N j Tim Schmölzer Spline-Interpolation 20 November / 38
5 Das Interpolationsproblem (14) Definition Die folgende Problemstellung bezeichnen wir künftig als das Interpolationsproblem, kurz: IP Zu gegebenen Stützstellen τ 1,, τ n und Daten f (τ 1 ),, f (τ n ) bestimme die Koeffizienten c 1,, c n so, dass S(τ i ) = n c j N j (τ i ) = f (τ i ) j=1 Tim Schmölzer Spline-Interpolation 20 November / 38
6 Die Kollokationsmatrix (21) Definition Die Matrix N 1,k (τ 1 ) N n,k (τ 1 ) A := (N j,k (τ i )) n i,j=1 := N 1,k (τ n ) N n,k (τ n ) nennen wir Kollokationsmatrix zum Interpolationsproblem IP (22) Bemerkung c = (c 1,, c n ) löst das IP genau dann, wenn c Lösung des linearen Gleichungssystems Ax = f (τ) ist Insbesondere ist das Interpolationsproblem genau dann eindeutig lösbar, wenn A invertierbar ist Tim Schmölzer Spline-Interpolation 20 November / 38
7 Ein notwendiges Kriterium (23) Lemma Ist das Interpolationsproblem eindeutig lösbar, so folgt: τ j (t j, t j+k ) für alle 1 j n Beweis Angenommen τ j / (t j, t j+k ) für ein j, etwa t j+k τ j Dann gilt für alle r j s auch t r+k τ s Wegen des lokalen Trägers der B-Splines: N r,k (τ s ) = 0 Die ersten j Spaltenvektoren der Kollokationsmatrix sind also linear abhängig Die Kollokationsmatrix ist nicht invertierbar, das IP also nicht eindeutig lösbar Tim Schmölzer Spline-Interpolation 20 November / 38
8 Der Satz von Schoenberg und Whitney (1) (24) Satz (Schoenberg-Whitney) Das Interpolationsproblem ist eindeutig lösbar τ j (t j, t j+k ) für alle 1 j n Anmerkungen zum Beweis Wir müssen nur noch zeigen Die andere Richtung war (23) Blockdreiecksmatrizen sind invertierbar Diagonalblöcke sind invertierbar Satz von Rolle: Ist eine Funktion f auf [a, b] stetig und auf (a, b) differenzierbar und gilt f (a) = f (b), so existiert ein x 0 (a, b) mit f (x 0 ) = 0 Tim Schmölzer Spline-Interpolation 20 November / 38
9 Die Rolle der Kollokationsmatrix (31) Erinnerung Es gilt C 1 k c c j N j,k c (32) Bemerkung Es gilt c = A 1 f (τ) A 1 f (τ) A 1 f ; die Stabilität der Interpolation ist also umso besser, je kleiner A 1 wird (33) Bemerkung Auch der Einfluss von f (τ i ) auf die Interpolierende hängt quantitativ von A 1 ab Tim Schmölzer Spline-Interpolation 20 November / 38
10 Ein technisches Lemma (34) Lemma Es sei (a i ) i 0 eine Folge, a i 0 für alle i Existieren dann c > 0, m N mit a i c a k m, dann gilt die Abschätzung i k a k ( c ) k c + 1 m i 0 a i Tim Schmölzer Spline-Interpolation 20 November / 38
11 Der Satz von Demko (35) Satz (Demko) Es sei A = (a ij ) i,j C n n eine invertierbare Bandmatrix mit Bandbreite m Es gelte A q 1 und A 1 q µ 1 für ein 1 q und ein µ > 0 Dann existiert eine nur von der Bandbreite m und µ abhängige Konstante c > 0 und ein λ [0, 1) mit (A 1 ) i,j c λ i j für alle i, j Bemerkungen zum Beweis A q = A q, wobei A = (ā ji ) i, j die Adjungierte von A ist q 1 Da die Adjungierte immer noch eine Bandmatrix mit Bandbreite m ist, genügt es den Fall 1 q 2 zu betrachten Tim Schmölzer Spline-Interpolation 20 November / 38
12 Minoren (1) (36) Definition Sei B C n n, r N, I = (i 1 < < i r ), J = (j 1 < < j r ) Der Minor ( ) ( ) i1,, i B r I := B := det (B j 1,, j r J i,j ) i I,j J ist die Determinante derjenigen Untermatrix von B, die entsteht, wenn man alle Zeilen i / I und alle Spalten j / J streicht (37) Beispiel ( ) ( ) B = , B = det Tim Schmölzer Spline-Interpolation 20 November / 38
13 Minoren (2) (38) Bemerkung Ein Minor der Kollokationsmatrix ist nur dann ungleich Null, wenn die dazugehörigen Diagonalelemente alle ungleich Null sind Beweis Die Argumentation gleicht der aus Lemma (21), wobei man hier Untermatrizen der Kollokationsmatrix betrachtet Tim Schmölzer Spline-Interpolation 20 November / 38
14 Total positive und schachbrettartige Matrizen (39) Defintion Eine Matrix B heisst total positiv, wenn alle Minoren nichtnegativ sind schachbrettartig, wenn ( 1) i+j B i,j 0 für alle i, j (310) Lemma Ist B total positiv und invertierbar, dann ist B 1 schachbrettartig Beweis Es sei I j := (1,, j 1, j + 1,, n) Dann benutze die Cramersche Regel: (B 1 ) i,j = ( 1) i+j B ( Ij I i det B Tim Schmölzer Spline-Interpolation 20 November / 38 )
15 Eine erste Abschätzung (311) Korollar Gilt für eine total positive invertierbare Matrix B und einen Vektor x = (x 1,, x n ) T d := min( 1) i (Bx) i > 0, i so gilt auch die Abschätzung B 1 x d Tim Schmölzer Spline-Interpolation 20 November / 38
16 Beweis der Abschätzung Beweis x i = (B 1 ) i,j (Bx) j j = ( 1) j (B 1 ) i,j ( 1) j (Bx) j j = (B 1 ) i,j ( 1) j (Bx) j j j (B 1 ) i,j d max x i (B 1 ) i,j d (B 1 ) i,j x d Tim Schmölzer Spline-Interpolation 20 November / 38
17 Verfeinerungen von Knotenfolgen (312) Definition Eine Knotenfolge ist eine Verfeinerung der Knotenfolge T, wenn T eine Teilfolge von ist (313) Lemma Es sei = (δ i ) N+k i=1 eine Verfeinerung der Knotenfolge Θ = (θ i ) n+k i=1 ; Insbesondere sei θ j = δ l θ j+k = δ m+k (und m j, da Θ ) Dann sind die B-Splines N j,k,θ von der Form N j,k,θ = α j,k (i)n i,k, und es gilt: supp α j [l, n], α j,k 0 wobei (δ l,, δ n+k ) der kleinste Abschnitt von ist, der die Punkte θ j,, θ j+k enthält Tim Schmölzer Spline-Interpolation 20 November / 38
18 Die Totalpositivität der Kollokationsmatrix (314) Satz Die Kollokationsmatrix A = (N j,k,t (τ i )) i,j ist total positiv Beweis (1) Für geeignetes J = (j 1 < < j r ) ist ( jeder Minor ) der 1,, r Kollokationsmatrix von der Form A, oder kann durch J Umnummerierung der τ j auf diese Form gebracht werden Wir verfeinern die Knotenfolge durch Hinzufügen eines Knotens δ ν zu := (, t ν 1, δ ν, t ν, ) N j,k,t = α j,k (i)n i,k, supp α j,k [j, j + 1], α j 0 Tim Schmölzer Spline-Interpolation 20 November / 38
19 Die Totalpositivität der Kollokationsmatrix (2) Beweis (2) Aus der Spaltenlinearität der Determinante erhalten wir: ( ) 1,, r A = det( N J j ) ( ) = det α j,k (i)n i,k, i = i 1 i r α j1,k(i 1 ) α jr,k(i r ) A ( 1,, r i 1,, i r ), wobei ( ) A 1,, r = det( N i 1,, i ij,k, ) r Tim Schmölzer Spline-Interpolation 20 November / 38
20 Die Totalpositivität der Kollokationsmatrix (3) Beweis (3) Die α jµ,k, 1 µ < n, sind nur dann ungleich 0, wenn i µ [j µ, j µ + 1] supp α jµ Da J geordnet ist gilt i µ i µ+1 Es genügt den Fall i µ < i µ+1 zu betrachten Wir erhalten also: ( ) 1,, r A = J I geordnet ( ) α J (I )A 1,, r I Wiederholtes Hinzufügen eines Knotens liefert das gleiche Ergebnis für beliebige Verfeinerungen Tim Schmölzer Spline-Interpolation 20 November / 38
21 Die Totalpositivität der Kollokationsmatrix (4) Beweis (4) Sei U eine Verfeinerung von T, sodass in U mindestens k Knoten zwischen τ i und τ i+1 liegen Dann folgt: N j,k,u (τ i ) 0 N j,k,u (τ j ) = 0 für i j ( ) 1,, r Jede Spalte von A hat höchstens einen Eintrag ungleich 0 I Dieser ( Eintrag ) muss auf der Diagonalen liegen, wenn 1,, r A 0 I ( ) 1,, r Dann gilt aber auch A = r I µ=1 N i µ (τ µ ) > 0 ( ) 1,, r In jedem Fall ist A 0 und daraus folgt die Behauptung I Tim Schmölzer Spline-Interpolation 20 November / 38
22 Grenzbetrachtung (315) Bemerkung Die Grösse von A 1 hängt sehr stark von t und τ ab Wir betrachten die Grenzfälle τ j τ j 0? { t j t j+k A 1 Tim Schmölzer Spline-Interpolation 20 November / 38
23 Eine Abschätzung nach unten Herleitung Es sei g := Pf := c j N j der Spline mit g(τ i ) = ( 1) i Dann gilt A 1 = c ZWS liefert die Existenz eines ξ [τ i, τ i+1 ] mit g (ξ) = ( 1) i+1 2 τ i = g(τ i) τ i = (k 1) c j c j 1 N j,k 1 (ξ) t j+k 1 t j ( ) 1 (k 1) 2 c max N j,k 1 (ξ) 0 t j+k 1 t j Tim Schmölzer Spline-Interpolation 20 November / 38
24 Eine Abschätzung nach unten (2) Direkte Folgerung daraus ist die folgende Abschätzung: (316) Satz A 1 1 k 1 max i { } tj+k 1 t j min [t j, t j+k 1 ] [τ i, τ i+1 ] j τ i+1 τ i Tim Schmölzer Spline-Interpolation 20 November / 38
25 Kubische Spline-Interpolation Grundsituation Interpolation mit Splines der Ordnung k = 4 an Daten f (τ 1 ),, f (τ n ), wobei a = τ 1 < < τ n = b eine Zerlegung des Intervalls [a, b] ist Die Interpolante S soll in jedem [τ j, τ j+1 ] mit einem kubischen Polynom übereinstimmen Tim Schmölzer Spline-Interpolation 20 November / 38
26 Interpolationsbedinungen Grundsituation (2) Das i-te Polynomstück P i soll die folgenden Interpolationsbedingungen erfüllen P i (τ i ) = f (τ i ), P i (τ i+1 ) = f (τ i+1 ) P i (τ i) = s i, sind P i (τ i+1) = s i+1 wobei s 1,, s n hier freie Parameter Unabhängig von diesen Steigungen stimmt S in den τ j mit f überein und ist auf [a, b] stetig differenzierbar Tim Schmölzer Spline-Interpolation 20 November / 38
27 Herleitung der kubischen Spline-Interpolation Herleitung Newtonform: P i (x) =P i (τ i ) + (x τ i )[τ i, τ i ]P i + (x τ i ) 2 [τ i, τ i, τ i+1 ]P i + (x τ i ) 2 (x τ i+1 )[τ i, τ i, τ i+1, τ i+1 ]P i Das Schema der dividierten Differenzen liefert P i (x) = c 1,i + c 2,i (x τ i ) + c 3,i (x τ i ) 2 + c 4,i (x τ i ) 3 c 1,i = P i (τ i ) = f (τ i ), c 2,i = P i (τ i ) = s i, c 3,i = ([τ i, τ i+1 ]f s i ) τ i c 4,i τ i, c 4,i = 1 6 P i (τ i ) = s i + s i+1 2[τ i, τ i+1 ]f ( τ i ) 2 Tim Schmölzer Spline-Interpolation 20 November / 38
28 Kubische C 2 -Interpolation Bestimmung der s 2,, s n 1 durch C 2 -Glattheitsforderung P i 1 (τ i) = P i (τ i) Einsetzen der vorherigen Gleichungen liefert: s i 1 τ i + s i 2( τ i 1 + τ i ) + s i+1 τ i 1 = b i Die rechte Seite ist nicht von den s i abhängig Sind s 1 und s n schon bestimmt, erhalten wir ein LGS in Tridiagonalgestalt Tim Schmölzer Spline-Interpolation 20 November / 38
29 Randbedingungen (41) Definition Vollständige Interpolation: s 1 = f (τ 1 ) und s n = f (τ n ) Natürliche Randbedingungen: S (τ 1 ) = S (τ 2 ) = 0 not-a-knot-bedingungen: P 1 = P 2 und P n 1 = P n Tim Schmölzer Spline-Interpolation 20 November / 38
30 Approximation der Rungefunktion mit Spline-Interpolation (42) Beispiel: Runge y 06 y K4 K x K02 K4 K x K02 Abbildung: kubische C 2 -Interpolation der Rungefunktion (not-a-knot-randbedingungen) an 5 bzw 10 Stützstellen Tim Schmölzer Spline-Interpolation 20 November / 38
31 Die Krümmung einer Kurve (43) Definition Für den Graphen eine Funktion g : [a, b] R ist die Krümmung im Punkt (x, g(x)) definiert durch: κ g (x) = (1 + g (x) 2 ) 3 2 (44) Bemerkung Die Krümmung beschreibt tatsächlich die Stärke der Richtungsänderung über die Bogenlänge Die obige Charakterisierung lässt sich mit einigen differentialgeometrischen Hilfsmitteln (Frenet-Gleichungen) herleiten g Tim Schmölzer Spline-Interpolation 20 November / 38
32 Eine Extremaleigenschaft (45) Bemerkung Den Graph der Funktion kann man sich als eine dünne Holzlatte vorstellen Deren Biegeenergie ist: E = 1 2 a κ g (x) 2 dx Für kleine Auslenkungen: E 1 b 2 a g (x) 2 dx (46) Satz Es sei S die kubische Spline-Interpolierende zu den Daten von oben mit natürlicher oder vollständiger Interpolation an den Rändern Dann gilt: b für jede andere Interpolierende f a b S (x) 2 dx b a f (x) 2 dx Tim Schmölzer Spline-Interpolation 20 November / 38
33 Grenzen der Spline-Interpolation x Tim Schmölzer Spline-Interpolation 20 November / 38
34 Zusammenfassung Ein wichtiges Werkzeug: Die Kollokationsmatrix eines Interpolationsproblems Existenz und Eindeutigkeit: Der Satz von Schoenberg und Whitney Stabilitätsanalyse: Die Rolle von A 1 Totalpositivität der Kollokationsmatrix In der Praxis: Kubische C 2 -Interpolation Herkunft des Namen Spline: Eine Extremaleigenschaft für kubische Spline-Interpolierende Tim Schmölzer Spline-Interpolation 20 November / 38
Euklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
Mehr3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen
KAPITEL 3 INTERPOLATION UND APPROXIMATION 4 33 Newtonsche Interpolationsformel / Dividierte Differenzen Das Verfahren von Neville ist unpraktisch, wenn man das Polynom selbst sucht oder das Polynom an
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrNUMERISCHE MATHEMATIK II 1. (Studiengang Mathematik) Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau WS 2001/2002
NUMERISCHE MATHEMATIK II 1 (Studiengang Mathematik) Prof Dr Hans Babovsky Institut für Mathematik Technische Universität Ilmenau WS 2001/2002 1 Korrekturen, Kommentare und Verbesserungsvorschläge bitte
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrPolynominterpolation
Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses
Mehry = A(x) y + b(x). (1) y = A(x) y (2)
73 5.2 Lineare Systeme Sei weiterhin IK = C oder IK = IR. Seien = I IR ein offenes Intervall, x 0 I, y 0 IK n, A: I IK n n und b: I IK n stetige matrix- bzw vektorwertige Funktionen. Wir betrachten komplexe
MehrIn diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
Mehr( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
Mehr2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
Mehr4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
Mehr2. Spezielle anwendungsrelevante Funktionen
2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
MehrQuadratische Matrizen
Quadratische Matrizen (n n)-matrizen heißen quadratische Die entsprechenden linearen Abbildungen sind laut Definition Endomorphismen des R n (weil f A : R n R n ) Das Produkt von (n n)- Matrizen ist auch
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrKapitel 17. Determinanten
Kapitel 17. Determinanten Vorschau: Determinanten Es gibt drei Problemfelder, für die Determinanten von großem Nutzen sind: die formelmäßige Überprüfung der linearen Unabhängigkeit eines Systems von n
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als
MehrDiagonalisieren. Nikolai Nowaczyk Lars Wallenborn
Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrSpezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:
Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es
Mehr(Allgemeine) Vektorräume (Teschl/Teschl 9)
(Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:
Mehr4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung
43 Permutationen Definition Eine Permutation der Elementen {,, n} ist eine bijektive Abbildung σ : {,,n} {,,n} Es ist leicht zu sehen, dass die Hintereinanderführung zweier Permutationen ergibt wieder
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrAnalysis I. 4. Beispielklausur mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein
MehrÜbungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.
Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
Mehr11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrKonvergenz im quadratischen Mittel - Hilberträume
CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften
MehrZusammenfassung zur Konvergenz von Folgen
Zusammenfassung zur Konvergenz von Folgen. Definition des Konvergenzbegriffs Eine Folge reeller Zahlen a n n heißt konvergent gegen a in Zeichen a n = a, falls gilt > 0 n 0 n n 0 : an a < Hinweise: Bei
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
MehrC orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =
1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition
MehrErweiterte Koordinaten
Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
Mehr15 Hauptsätze über stetige Funktionen
15 Hauptsätze über stetige Funktionen 15.1 Extremalsatz von Weierstraß 15.2 Zwischenwertsatz für stetige Funktionen 15.3 Nullstellensatz von Bolzano 15.5 Stetige Funktionen sind intervalltreu 15.6 Umkehrfunktionen
MehrInhaltsverzeichnis INHALTSVERZEICHNIS 1
INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Die Parabel 2 1.1 Definition................................ 2 1.2 Bemerkung............................... 3 1.3 Tangenten................................ 3 1.4
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrLineare Abbildungen. i=0 c ix i n. K n K m
Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht
MehrBeginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
MehrWirtschaftsmathematik Formelsammlung
Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2015 (a + b) 2 = a 2 +2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) =a 2 b 2 Fakultät (Faktorielle) n! =1 2 3 4 (n 1) n Intervalle Notation
MehrThemen Lagrange-Interpolation Hermite-Interpolation. Splines. Bézier-Kurven. 5 Interpolation. Interpolation Die Lagrangesche Interpolationsaufgabe
5 Themen Lagrange- Bézier-Kurven saufgabe sformel Der sfehler 5.1 saufgabe È n = Raum der reellen Polynome vom Grad n. saufgabe sformel Der sfehler 5.1 saufgabe È n = Raum der reellen Polynome vom Grad
MehrDefinitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht
Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben
Mehr8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
MehrKapitel 5 KONVERGENZ
Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz
MehrVervollständigung Lateinischer Quadrate
Vervollständigung Lateinischer Quadrate Elisabeth Schmidhofer 01.12.2013 Inhaltsverzeichnis 1 Vorwort 3 2 Einleitung 4 2.1 Beispele.............................................. 4 3 Lateinische Quadrate
Mehr3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
MehrÜbungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016
Übungen zu Einführung in die Numerische Mathematik (VE) Sommersemester 6 Prof. Dr. Martin Rumpf Pascal Huber Sascha Tölkes Übungsblatt 8 Abgabe:.6.6 Aufgabe 5 (Elliptisches Randwertproblem auf einem Ring)
MehrMatrizen und Determinanten
Matrizen und Determinanten 1 Matrizen und Determinanten 1 Einführung in den Matrizenbegriff Zur Beschreibung und Lösung vieler physikalischer Probleme ist die Vektorrechnung vonnöten Durch Verwendung von
MehrLineare Abhängigkeit
Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrLineare Algebra II 6. Übungsblatt
Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrLösungsskizzen zur Klausur
sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie
MehrDarstellungsformeln für die Lösung von parabolischen Differentialgleichungen
Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung
MehrInterpolation. Nadine Losert. Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr.
Interpolation Nadine Losert Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: Nachdem wir in den vorherigen Vorträgen verschiedene
MehrLineare Algebra KAPITEL III. 12 Matrizen und der Gauß-Algorithmus. I) Matrizen
KAPITEL III Lineare Algebra 12 Matrizen und der Gauß-Algorithmus I Matrizen Definition 121 Matrizen und der R n Es seien m,n 1 zwei positive ganze Zahlen a Eine m n-matrix über R ist ein rechteckiges Schema
MehrVorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7
Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe
MehrFunktionsgrenzwerte, Stetigkeit
Funktionsgrenzwerte, Stetigkeit Häufig tauchen in der Mathematik Ausdrücke der Form lim f(x) auf. x x0 Derartigen Ausdrücken wollen wir jetzt eine präzise Bedeutung zuweisen. Definition. b = lim f(x) wenn
MehrMathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
MehrBeispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A
133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des
MehrKurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de
MehrLösung (die Geraden laufen parallel) oder unendlich viele Lösungen.
1 Albert Ludwigs Universität Freiburg Abteilung Empirische Forschung und Ökonometrie Mathematik für Wirtschaftswissenschaftler Dr. Sevtap Kestel Winter 2008 Kapitel 16 Determinanten und inverse Matrizen
MehrSpezialgebiet Mathematik(Christian Behon ) 1. Matrizen. Kapitel 1 Definitionen und Herleitung von Matrizen. Kapitel 2 Matrizenoperation
. Inhaltsverzeichnis.............. Spezialgebiet Mathematik(Christian Behon ) 1 Matrizen Kapitel 1 Definitionen und Herleitung von Matrizen 1.1 Was sind Matrizen 1.2 Arten von Matrizen Kapitel 2 Matrizenoperation
Mehr3.4 Der Gaußsche Algorithmus
94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,
MehrKapitel 12. Lineare Abbildungen und Matrizen
Kapitel 12 Lineare Abbildungen und Matrizen Lineare Abbildungen f : R n R m Wir wissen schon: Eine lineare Abbildung f : R n R m ist eindeutig durch ein n-tupel von Vektoren v 1, v 2,, v n des R m bestimmt
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
Mehr45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
MehrLineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A.
Lineare Hülle Def A sei eine nichtleere Teilmenge des Vektorraums (V,+, ) Die lineare Hülle von A (Bezeichung: span(a)) ist die Menge aller Linearkombinationen der Elemente aus A { k } span(a) := λ i v
MehrII. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme
52 II Lineare Gleichungssysteme II Lineare Gleichungssysteme 10 Matrizen und Vektoren 52 11 Der Gaußsche Algorithmus 58 12 Basen, Dimension und Rang 62 13 Reguläre Matrizen 66 14 Determinanten 69 15 Skalarprodukte
Mehr35 Stetige lineare Abbildungen
171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.
Mehr00. Einiges zum Vektorraum R n
00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen
MehrEine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls
Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv
MehrÜbungen zur Vorlesung MATHEMATIK II
Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom
MehrProf. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1
Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis
MehrLineare Algebra I Zusammenfassung
Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition
MehrLineare Algebra. Teil III. Inhaltsangabe
Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24
MehrLineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich
Lineare Algebra U Stammbach Professor an der ETH-Zürich I Vektorräume Kapitel I Vektorräume 1 I1 Lineare Gleichungssysteme 1 I2 Beispiele von Vektorräumen 7 I3 Definition eines Vektorraumes 8 I4 Linearkombinationen,
MehrÜbungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b
MehrLösungen zum 5. Aufgabenblatt
SS 2012, Lineare Algebra 1 Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
MehrNormalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,
Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige
Mehr