3.6 Approximationstheorie
|
|
|
- Hennie Berg
- vor 9 Jahren
- Abrufe
Transkript
1 3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum P meist wieder der Raum der Polynome), welche die beste Approximation zu gegebener Funktion f oder zu gegebenen diskreten Daten y i R darstellt. Der Begriff beste Approximation ist dabei weit gefasst und wir bezeichnen ihn mit dem minimalen Abstand von p zu f (oder zu den diskreten Daten). Den Abstand zwischen Funktionen können wir in Normen messen und die allgemeine Approximationsaufgabe besteht nun im Auffinden von p P, so dass f p = min f q. q P Die Wahl der Norm ist dabei zunächst beliebig. Es stellt sich jedoch heraus, dass die mathematische Approximationsaufgabe je nach betrachteter Norm einer sehr unterschiedliche Vorgehensweise bedarf. Eine spezielle Approximationsaufgabe haben wir bereits kennengelernt: Bemerkung 3.77 (Lagrange-Interpolation als Approximation). Angenommen, in den n + paarweise verschiedenen Stützstellen x 0, x,..., x n soll für das Polynom p n P n gelten p(x i ) = f(x i ), dann definieren wir die Norm: p n := max i=0,...,n p(x i). Man kann zeigen, dass dies wirklich eine Norm auf dem Polynomraum P n ist. Die Approximationsaufgabe: suche p P n, so dass p f n = min q P n q f n, ist gerade die Lagrange-Interpolationsaufgabe. In diesem Abschnitt werden wir uns hingegen hauptsächlich mit der L 2 -Norm sowie mit der Maximumsnorm ( b f L 2 ([a,b] := f(x) 2 dx a f := max x [a,b] f(x), befassen. Die beste Approximation in der L 2 -Norm taucht in der Analysis in Form der Fourier-Entwicklung in trigonometrischen Polynomen auf, Konvergenz wird hier bezüglich der L 2 -Norm f f n L 2 ([a,b]) 0 (n ), ) 2, 00
2 3.6 Approximationstheorie gezeigt. Die Approximation bezüglich der Maximumsnorm ist für die praktische Anwendung von großer Bedeutung: denn eine Approximation, die den Fehler gleichmäßig auf dem gesamten Intervall [a, b] unter Kontrolle hält, schließt die typischen Oszillationen der Lagrange-Interpolation an den Intervallenden (siehe Beispiel 3.5) systematisch aus. Es zeigt sich allerdings, das gerade dieser für die Anwendung wichtige Approximationsbegriff mathematisch schwer zu greifen ist Gauss-Approximation: Beste Approximation in der L 2 -Norm Zunächst betrachten wir die beste Approximation einer Funktion f : [a, b] R mit Polynomen p P bezüglich der L 2 -Norm: f p L 2 ([a,b]) = min φ P f φ L 2 ([a,b]). Die L 2 -Norm kann mittels f L 2 = (f, f) 2 über das L 2 -Skalarprodukt definiert werden. Vektorräume mit Skalarprodukt heißen Prähilbertraum. Speziell in reellen Vektorräumen spricht man von euklidischen Räumen, im komplexen auch von unitären Räumen. Das Skalarprodukt dient zur Beschreibung von Orthogonalitätsbeziehungen. Für die Approximation bezüglich der L 2 -Norm gilt die folgende Charakterisierung: Satz 3.78 (Approximation und Orthogonalität). Es sei f C[a, b] und S C[a, b] ein endlich dimensionaler Unterraum. Auf S sei durch (, ) ein Skalarprodukt und durch die induzierte Norm gegeben. Dann ist p S beste Approximation zu f C[a, b] f p = min f φ, φ S genau dann, wenn der Fehler f p orthogonal auf dem Raum S steht: (f p, φ) = 0 φ S. Beweis: Es sei p S eine beste Approximation Dann besitzt die quadratische Funktion F φ (t) := f p tφ 2, t R für jedes fest gewählte φ S bei t = 0 ein Minimum. Also gilt die für Minima differenzierbarer Funktionen notwendige Bedingung: 0 = F (0) = t f p tφ 2 t=0 = (f p tφ, φ) (φ, f p tφ) t=0 = 2(f p, φ) φ S. Geometrisch kann man dies so ausdrücken, dass der Fehler f p senkrecht auf dem approximierenden Raum S steht im Sinne des L 2 -Skalarprodukts. 0
3 Umgekehrt gelte nun die Beziehung (f p, φ) = 0 φ S, für ein p S. Dann erhält man durch Erweitern mit φ und Anwendung der Cauchy- Schwarz-Ungleichung f p 2 = (f p, f p) = (f p, f φ+φ p) = (f p, f φ)+(f p, φ p) f p f φ. }{{} S Hier haben wir die Orthogonalitätsbeziehung für φ p S verwendet. Weiter folgt: f p f φ f p = inf f φ φ S und damit ist auch p beste Approximation per Definitionem. Wir können die beste Approximation p S durch eine Orthogonalitätsbeziehung beschreiben. Dieser Zusammenhang ist der Schlüssel zur Analyse der Gauss-Approximation und auch zur praktischen numerischen Realisierung. Wir können sofort den allgemeinen Satz beweisen: Satz 3.79 (Allgemeine Gauß-Approximation). Es sei H ein Vektorraum mit Skalarprodukt (, ) und S H ein endlich-dimensionaler Teilraum. Dann existiert zu jedem f H eine eindeutig bestimmte beste Approximation p S in der induzierten Norm : f p = min f φ. φ S Beweis: Für den Beweis nutzen wir die Charakterisierung der Bestapproximation mit Hilfe des Skalarprodukts aus Satz (i) Eindeutigkeit. Seien p, p 2 S zwei Bestapproximationen. Dann gilt notwendigerweise für alle φ S. Dies impliziert (f p, φ) = 0 und (f p 2, φ) = 0 (p p 2, φ) = 0 φ S. Da dies für alle φ S gilt, können wir ein spezielles φ geschickt wählen. Eine kluge Wahl ist φ := p p 2, woraus dann (p p 2, p p 2 ) = p p 2 2 = 0 und aufgrund der Definitheit der Norm (im Teilraum S H) p = p 2 folgt. (ii) Existenz 02
4 3.6 Approximationstheorie Der endlich-dimensionale Teilraum S H besitzt eine Basis {φ,..., φ n } mit n := dim(s). Die beste Approximation p S stellen wir als Linearkombination in dieser Basis dar: p = α k u k, k= mit eindeutig bestimmten Koeffizienten α k R. Dieser Ansatz für p wird in die Orthogonalitätsbedingung eingesetzt: (f p, φ) = (f α k φ k, φ) = (f, φ) k= α k (φ k, φ) = 0 φ S. Wir durchlaufen mit φ nach und nach alle Basisvektoren und erhalten (Superpositionsprinzip) das lineare Gleichungssystem mit n Gleichungen und n Variablen: (φ k, φ i ) α }{{}}{{} k k= =a ki x k= = (f, φ i ) }{{} i =,..., n, (3.9) =b i in dem der Koeffizientenvektor x = (α k ) k=,...,n die gesuchte unbekannten Lösung ist. Die sogenannte Systemmatrix A = (a ij ) n i,j= ist die Gramsche Matrix der Basis {φ,..., φ n } und stets regulär. A ist folglich injektiv. Weiter ist A symmetrisch und also auch positiv definit. Das Gleichungssystem Ax = b ist somit für jede rechte Seite b (d.h. für jedes f H) eindeutig lösbar. Damit ist über die Orthogonalitätsbedingung eindeutig ein Element p P bestimmt, welches aufgrund von Teil Satz 3.78 die Bestapproximationseigenschaft besitzt. Der Beweis liefert sofort ein Konstruktionsprinzip zur Bestimmung der Bestapproximation p S. Wir stellen zu gegebener Basis {φ,..., φ n } das lineare n n Gleichungssystem auf: a ij α j = b i, i =,..., n, j= mit a ij = (ψ i, ψ j ) und berechnen den Ergebnisvektor x = (α j ) j. Die gesuchte Bestapproximation p S ist dann in der Basisdarstellung gegeben als p = α i ψ i. i= Zur numerischen Realisierung muss zunächst das lineare Gleichungssystem aufgestellt werden, d.h. insbesondere müssen die Einträge der Systemmatrix (numerisch) integriert werden. Schließlich ist das lineare Gleichungssystem Ax = b zu lösen. Das Lösen von linearen Gleichungssystemen stellt einen eigenen Schwerpunkt in der numerischen Mathematik dar und wir befassen uns damit in Kapitel 4. Es zeigt sich, dass dieser Lösungsweg numerische sehr instabil ist. Angenommen, wir starten die Konstruktion mit der Monombasis {, x,..., x n }. Dann ist die durch a ij = x i x j dx, 03
5 gegebene Matrix die sogenannte Hilbert-Matrix H n = n n n n+2 n+ n n n Das Lösen eines Gleichungssystems mit der Hilbert-Matrix ist äußerst schwer. Dies liegt an der Konditionszahl der Hilbertmatrix, welche angibt, wie sich Rundungsfehler beim Lösungsprozess verstärken. Schon für n = 4 liegt die Fehlerverstärkung der Hilbert-Matrix bei Diese Matrix muss also unbedingt vermieden werden. Auch wenn die Wahl der Basisvektoren {φ,..., φ n } keinen Einfluss auf das Ergebnis hat, so bestimmt sie doch wesentlich den Aufwand bei der Realisierung. Angenommen, die Basis sei ein Orthonormalsystem, d.h. es gelte (φ i, φ j ) = δ ij für alle i, j =,..., n. Dann gilt für die Systemmatrix in (3.9) a ij = (φ i, φ j ) = δ ij A = I. Die Systemmatrix ist die Einheitsmatrix und die gesuchten Koeffizienten lassen sich sofort ablesen α i = (f, φ i ), womit die Bestapproximation durch die Relation p = (f, φ i )φ i, i= trivial gegeben ist. Für dieses vereinfachte Vorgehen benötigen wir zunächst eine Orthonormalbasis von S H. Die Orthonormalisierung kann mit Hilfe des bereits diskutieren Gram-Schmidt-Algorithmus durchgeführt werden. Bei Verwendung der Monombasis des S = P n führt dieser Algorithmus auf die Legendre-Polynome. Wir fassen zusammen:. Korollar 3.80 (Gauss-Approximation mit Polynomen). Es sei f C[, ]. Die Bestapproximation p P n bezüglich der L 2 -Norm im Raum der Polynome von Grad n eindeutig bestimmt durch: p(x) = L i 2 (L i, f)l i (x), L 2 [,] mit den Legendre-Polynomen i=0 d i L i (x) := 2 i i! dx i (x2 ) i. 04
6 3.6 Approximationstheorie.5 f(x) Gauss-Approximation Lagrange-Interpolation Fehler Gauss-Approximation Fehler Lagrange-Interpolation Abbildung 3.0: Gauss-Approximation sowie Lagrange-Inteprolation (jeweils kubisch) der Funktion f(x) = sin(πx). Rechts: Fehler der Approximationen. Die Normierung mit L n 2 ist notwendig, da die Legendre-Polynome bezüglich der L 2 - Norm nicht normiert sind, vergleiche Satz Die Eigenschaft von p P n die beste Approximation zu f im Raum der Polynome zu sein, bedeutet auch, dass p bezüglich der L 2 -Norm eine bessere Approximation ist als jede Lagrange-Interpolation zu beliebiger Wahl von Stützstellen x 0,..., x n in [, ]. Hieraus können wir auf triviale Weise eine einfache Fehlerabschätzung herleiten. Dazu sei f C n+ ([a, b]) und p P n die Bestapproximation. Es gilt: f p L 2 ([a,b]) f n+ (n + )! n min x 0,...,x n [a,b] j=0 (x x j ) 2 dx 2. (3.20) Das Minimum des zweiten Ausdrucks ist nicht einfach zu bestimmen, es können alle Stützstellen im Intervall frei variert werden. Wir werden aber später auf diesen Punkt zurückkommen und diese Lücke schließen. Beispiel 3.8 (Gauss-Approximation vs. Lagrange-Interpolation). Wir approximieren die Funktion f(x) = sin(πx) auf dem Intervall I = [, ] mit Polynomen vom Grad drei. Zunächst erstellen wir in den äquidistant verteilten vier Stützstellen x i = + 2i 3, i = 0,..., 3 das zugehörige Lagrangesche Interpolationspolynom. Aufgrund von f(x 0 ) = f(x 3 ) = 0 gilt: p L (x) = sin(x )L (3) (x) + sin(x 2)L (3) 2 (x) = (x x3 ). Als zweite Approximation bestimmen wir die Gauß-Approximation in der L 2 -Norm. Hierzu verwenden wir die Darstellung über die normierten Legendre-Polynome L n (x) auf [, ]. 05
7 Es gilt aus Symmetriegründen: L 0 (x) f(x) dx = L 2 (x) f(x) dx = 0, sowie 6 4(π L (x) f(x) dx = π, L 2 5) 3 (x) f(x) dx = π 3. Hieraus erhalten wir die Gauß-Approximation 6 p G (x) = π L 4(π 2 5) (x) + π 3 L3 (x) Für die beiden Approximationen gilt: = 5x(7π2 x 2 05x 2 3π ) 2π 3. f p L L 2 ([,]) 0.2, f p G L 2 ([,]) 0., d.h., die Gauß-Approximation liefert in der L 2 -Norm ein doppelt so gutes Ergebnis. In Abbildung 3.0 zeigen wir beide Approximationen, die Funktion f(x) sowie die Fehler f(x) p l (x) sowie f(x) p g (x). Hier sehen wir zunächst, dass die Lagrange-Interpolation an den Stützstellen die Interpolationsbedingung, also f(x i ) = p L (x i ) = 0 erfüllt, wo hingegen die Gauss-Approximation gerade am Rand einen großen Fehler aufweist. Der maximale Fehler im Intervall ist hingegen bei der Gauß-Approximation etwas geringer. Diskrete Gauß-Approximation Gegeben sei nun eine Messreihe (x i, y i ), i =, 2,..., m. Wir suchen eine approximierende Funktion p S, wobei üblicherweise wieder S = P n ein einfacher Polynomraum ist. Wir suchen die beste Approximation p S bezüglich der euklidischen Norm: ( m ) p y 2 := p(x i ) y i 2 2 i= = min φ S φ y 2. Im Gegensatz zur Lagrangeschen Interpolationsaufgabe fordern wir in den Stützstellen x i nicht p(x i ) = y i. Die Diskrete Gauß-Approximation wird üblicherweise zur Approximation von diskreten Messwerten verwendet. Dann gilt meist m n, wenn zum Beispiel eine lineare Funktion p(x) = α 0 +α x gesucht wird, die viele (tausend) Messwerte approximiert. Die euklidische Vektornorm ist aus dem euklidischen Skalarprodukt abgeleitet: x 2 = (x, x) 2 2, daher kann die bisher entwickelte Theorie unmittelbar angewendet werden. Schlüssel zur Bestimmung der Bestapproximation ist wieder gemäß Satz 3.78 die Charakterisierung über die Orthogonalität: p y 2 = min φ S φ y 2 (p y, φ) 2 = 0 φ R n. 06
8 3.6 Approximationstheorie Alle Eigenschaften der kontinuierlichen Gauß-Approximation übertragen sich und wir können gleich den Existenzsatz formulieren: Satz 3.82 (Diskrete Gauß-Approximation). Es seien durch (x i, y i ) für i =,..., m diskrete Datenwerte gegeben. Weiter sei S ein endlich dimensionaler Funktionenraum mit Basis {φ,..., φ n }. Die diskrete Gauß-Approximation p S ist eindeutig bestimmt. ( m ) p y 2 := p(x i ) y i 2 2 i= = min φ S φ y 2, Beweis: Über die Basisdarstellung ist S äquivalent zum euklidischen Raum R n. Eindeutigkeit und Existenz folgen nun in R n wie im Beweis zu Satz Die Konstruktion der diskreten Gauß-Approximation folgt wieder über die Basisdarstellung p(x) = α i φ i (x) i= aus der beschreibenden Orthogonalitätsbeziehung: m (p y, φ k ) 2 = (p(x i ) y i )φ k (x i ) = 0, i= k =,..., n Setzen wir für p die Basisdarstellung ein, so erhalten wir das Gleichungssystem: m m α j φ j (x i )φ k (x i ) = y i φ k (x i ), k =,..., n. j= i= i= }{{}}{{} =(φ j,φ k ) 2 =(y,φ k ) 2 Der gesuchte Koeffizientenvektor α = (α k ) n k= ist gegeben als Lösung des Gleichungssytems: (φ 0, φ 0 ) 2 (φ 0, φ ) 2 (φ 0, φ n ) 2 α. 0 (y, φ 0 ) 2 (φ, φ 0 ).. 2. α = (y, φ ) 2. (φ n, φ 0 ) 2 (φ n, φ n ) 2 α n (y, φ n ) 2. Aus der allgemeinen Darstellung kann eine spezielle und häufig genutzte Approximation abgeleitet werden: die Gauß sche Ausgleichsrechnung: Beispiel 3.83 (Lineare Ausgleichsrechnung). Wir suchen die lineare Approximation p(x) P p(x) = α 0 + α x, 07
9 zu gegebenen Messwerten. Es seien φ 0 (x), φ (x) = x dann ergibt sich das folgende lineare Gleichungssystem: ( ) ( ) ( ) ( ) ( ) ( ) (φ0, φ 0 ) 2 (φ 0, φ ) 2 α0 (y, φ0 ) = 2 m xi α0 yi (φ, φ 0 ) 2 (φ, φ ) 2 α (y, φ ) 2, xi x 2 = i α xi y i. Dieses System ist regulär, falls m 2 und es mindestens zwei Stützwerte x i x j gibt. Wir wenden die lineare Ausgleichsrechnung auf konkrete Messdaten an: Beispiel 3.84 (Fortsetzung der Mensazählung). In der Mensazählung haben wir zu gewissen Uhrzeiten x i, i = 0,..., 7 (natürlich außerhalb der Vorlesungszeiten) die Anzahl der Personen y i, i = 0,..., 7 in der Mensa gezählt. Die folgenden Messdaten haben wir somit erhalten: x i [hour] = 0.30, 0.35, 0.45,.00, 3.00, 3.02, 3.4, 3.5, y i [Anz. Pers.] = 60, 70, 07, 90, 300, 325, 325, 350. Dann ist m = 8 und x i = 94.4 und x 2 i =.275e + 03 und x i y i = e Durch lösen des linearen Gleichungssystems erhalten wir die beiden Unbekannten α 0 = , α = Damit erhalten wir die lineare Ausgleichsgerade (illustriert in Abbildung 3.) g(x) = x. 08
10 3.6 Approximationstheorie x K5, K0, K5, K20, Abbildung 3.: Lineare Ausgleichsgerade der Gauß-Approximation und entsprechendes Interpolationspolynom im Vergleich (linkes Bild). Die Polynominterpolation macht nur wenig Sinn, da gegen 2.00 Uhr mehr als minus Menschen in der Mensa sind!!! Lineare Ausgleichsgerade der Gauß- Approximation und gegebene Messdaten sind im rechten Bild zu sehen. Verallgemeinerung der Gauß-Approximation Die diskrete Gauß-Approximation sowie die Approximation von Funktionen lassen sich durch die Verwendung von gewichteten Skalarprodukten und entsprechenden gewichteten induzierten Normen vereinfachen. Die Verwendung eines Gewichtes dient dazu, die Approximationsgenauigkeit der Gauß- Approximierenden an den Intervallenden zu verbessern. Für jedes integrable und positive ω(x) > 0 ist durch (f, g) ω := b a f(x)g(x)ω(x) dx, wieder ein Skalarprodukt mit entsprechender Norm f ω = (f, f) 2 ω, gegeben. Wir die Gewichtsfunktion w(x) = x 2 verwendet, so legt die Bestapproximation ein größeres Gewicht auf die Intervallenden. Die hieraus abgeleiteten orthonormalen Polynome sind die bereits diskutierten Tschebyscheff-Polynome. Auch die diskrete Gauß-Approximation lässt sich diesbezüglich verallgemeinern. Hierzu sei durch ω R n ein Vektor mit ω i > 0 gegeben. Dann ist für x, y R n durch (x, y) ω = x i y i ω i, x ω = (x, x) 2 ω, i= ein gewichtetes Skalarprodukt mit entsprechender Norm gegeben. Gerade für die diskrete Approximation spielen die Gewichte eine große Rolle in der Anwendung: Angenommen 09
11 für die Stützstellen und Stützwerte sind Abschätzungen für den Messfehler bekannt. Dann können Stützwerte mit kleinerem Messfehler stärker gewichtet werden. Sämtliche Sätze zur Gauß-Approximation wurden für beliebige von Skalarprodukten induzierte Normen bewiesen. Daher übertragen sich alle Eigenschaften auch auf die gewichteten Normen. 0
42 Orthogonalität Motivation Definition: Orthogonalität Beispiel
4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der
Orthogonalpolynome Einführung, Eigenschaften und Anwendungen
Anna Weller Orthogonalpolynome Einführung, Eigenschaften und Anwendungen 1 Orthogonalpolynome Einführung, Eigenschaften und Anwendungen Anna Weller Seminar zur Numerik im SS 2018, Universität zu Köln 10.
3 Vektorräume abstrakt
Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare
H.J. Oberle Analysis II SoSe Interpolation
HJ Oberle Analysis II SoSe 2012 7 Interpolation 71 Allgemeine Problemstellung Interpolation ist die Kunst, zwischen den Zeilen einer Tabelle zu lesen (Rutishauser) Von f : R R seien Funktionswerte (x j,
5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
Lineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
Aufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
Lineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
Einführung in die Grundlagen der Numerik
Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Normierter Vektorraum Sei X ein R-Vektorraum. Dann heißt
Skalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist
Orthogonalität p. 1 Skalarprodukt Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind u := u 1 u 2. u n reelle n-tupel, dann ist und v := v 1 v 2. v n u v := u 1 v 1 + u 2
Polynominterpolation
Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses
Euklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
Beispiele. zum Tutorium Numerisches Rechnen und Lineare Algebra WS 2016/2017
Beispiele zum Tutorium Numerisches Rechnen und Lineare Algebra WS 6/7 Zur positiven Beurteilung der LV ist es notwendig, dass aus jedem der 9 Abschnitte (Lineare Gleichungssysteme, Determinanten, Vektorräume,
Konvergenz im quadratischen Mittel - Hilberträume
CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften
Klassische Polynom Interpolation.
Klassische Polynom Interpolation. Bestimme ein Polynom (höchstens) n ten Grades p n (x) = a 0 + a 1 x + a 2 x 2 +... + a n x n, das die gegebenen Daten interpoliert, d.h. p n (x i ) = f i, 0 i n. Erster
8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.
8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis
M U = {x U f 1 =... = f n k (x) = 0}, (1)
Aufgabe 11. a) Es sei M = {(x, y, z) R 3 f 1 = xy = 0; f = yz = 0}. Der Tangentialraum T x M muss in jedem Punkt x M ein R-Vektorraum sein und die Dimension 1 besitzen, damit diese Menge M eine Untermannigfaltigkeit
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das
Kapitel 5. Vektorräume mit Skalarprodukt
Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der
1 Euklidische und unitäre Vektorräume
1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen
Unter einem reellen inneren Produktraum verstehen wir einen Vektorraum V über
9 Innere Produkte In diesem Kapitel betrachten wir immer Vektorräume über dem Körper der reellen Zahlen R oder dem Körper der komplexen Zahlen C. Definition 9.1: Sei V ein Vektorraum über R. Ein inneres
Wiederholungsserie II
Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
Tutorium 7. Definition. Sei V ein C-Vektorraum. Eine Abbildung, : V V C heißt komplexes Skalarprodukt : det F k > 0 mit F k := (f i,j ) C k k
Skalarprodukte Tutorium 7 Bemerkung. Für jeden komplexen Vektorraum V mit dim V und jede komplexe Bilinearform P auf V findet man einen Vektor v mit P (v, v) =. Es gibt also keine positiv definite Bilinearformen
17. Orthogonalsysteme
17. Orthogonalsysteme 17.1. Winkel und Orthogonalität Vorbemerkung: Sei V ein Vektorraum mit Skalaprodukt, und zugehöriger Norm, dann gilt nach Cauchy-Schwarz: x, y V \ {0} : x, y x y 1 Definition: (a)
Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
53 Die Parsevalsche Gleichung
53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 5 53. Skalarprodukte auf Räumen quadratintegrierbarer Funktionen. a) Die Orthogonalitätsrelationen (5.5) legen die Interpretation des Ausdrucks
Skalarprodukt, Norm & Metrik
Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1
Begleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
Institut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).
(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)
33 Interpolation 147 33 Interpolation In vielen praktischen Anwendungen der Mathematik treten Funktionen f auf, deren Werte nur näherungsweise berechnet werden können oder sogar nur auf gewissen endlichen
3 Interpolation und Approximation
In dem ersten großen Kapitel beschäftigen wir uns mit der Frage, wie eine Reihe von Daten (z.b. aus physikalischen Messungen, experimentelle Beobachtungen, Börse, etc.) durch eine möglichst einfache Funktion
Interpolation und Approximation von Funktionen
Kapitel 6 Interpolation und Approximation von Funktionen Bei ökonomischen Anwendungen tritt oft das Problem auf, dass eine analytisch nicht verwendbare (oder auch unbekannte) Funktion f durch eine numerisch
4 Lineare Abbildungen Basisdarstellungen
4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w
Gitterfreie Methoden. Florian Hewener. 29. Oktober 2013
Gitterfreie Methoden 1D 2D Florian Hewener 29. Oktober 2013 Gliederung 1 Interpolationsprobleme Problemstellung Haar-Räume 2 Mehrdimensionale Polynominterpolation 3 Splines Kubische Splines und natürliche
Begleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
Mathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
Tschebyschow-Polynome
Tschebyschow-Polynome Harald Leisenberger, Robert Trummer 24. April 203 Vorwort: In dieser Arbeit geht es um eine spezielle Art von Polynomen, die nach dem bekannten russischen Mathematiker P. L. Tschebyschow
VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
6. Polynom-Interpolation
6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für
Lösungen zu Blatt 13 der Übungen zur Vorlesung Numerik, LMU München, Wintersemester 2016/2017
Lösungen zu Blatt 13 der Übungen zur Vorlesung Numerik, LMU München, Wintersemester 01/017 Peter Philip, Sabine Bögli. Januar 017 1. 10 Punkte) a) Betrachten Sie R mit der Maximumsnorm. Berechnen Sie die
Lineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana [email protected] November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Orthogonale Matrix. Definition 4.19
Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung
Beispiel für eine periodische Spline-Interpolationsfunktion: Wir betrachten f(x) = sin(πx) und geben die folgenden Stützstellen und Stützwerte vor:
5 Splineinterpolation Beispiel für eine periodische Spline-Interpolationsfunktion: Wir betrachten f(x) sin(πx) und geben die folgenden Stützstellen und Stützwerte vor: x i 3 f i Damit ist n 5, h Forderung
Institut für Geometrie und Praktische Mathematik
RWTH Aachen IGPM RWTH Aachen Institut für Geometrie und Praktische Mathematik Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen
2) Wir betrachten den Vektorraum aller Funktionen f(x) = ax 4 +bx 2 +c mit a, b, c R.
Übung 6 1) Wir betrachten den Vektorraum aller Funktionen f(x) = ax 4 + bx 2 + c mit a, b, c R und nennen diesen V. Die Vektoren f 1 (x) = 2x 4 + 2x 2 + 2 und f 2 (x) = 3x 4 + x 2 + 4 sind in diesem Vektorraum
Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau
312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind
6 Polynominterpolation
Vorlesungsskript HM-Numerik (SS 2014): Kapitel 6 Version: 1 Juli 2014 6 Polynominterpolation Gegeben: Wertepaare { (x i,f i ) R 2 i = 0,,n } Gesucht: Einfache Funktion g : R R mit g(x i ) = f i i {0,1,,n}
KAPITEL 8. Interpolation
KAPITEL 8. Interpolation 8.2 Lagrange-Interpolationsaufgabe für Polynome Wir beschränken uns auf die Lagrange-Interpolation mit Polynomen. Der Raum der Polynome vom Grad n: Stützstellen: Π n = { n j=0
T n (1) = 1 T n (cos π n )= 1. deg T n q n 1.
KAPITEL 3. INTERPOLATION UND APPROXIMATION 47 Beweis: Wir nehmen an qx) für alle x [, ] und führen diese Annahme zu einem Widerspruch. Es gilt nach Folgerung ii) T n ) T n cos π n ). Wir betrachten die
7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
4.1. Vektorräume und lineare Abbildungen
4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt
Lineare Algebra. 9. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 9. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching November, 07 Erinnerung Ein Skalarprodukt ist eine Abbildung, : E n E n E, (v, w) v, w n k v kw k so dass:
Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
Kapitel 4: Interpolation Sei U eine Klasse von einfach strukturierten Funktionen, z.b.
Kapitel 4: Interpolation Sei U eine Klasse von einfach strukturierten Funktionen, z.b. - Polynome, - rationale Funktionen, - trigonometrische Polynome, - Splines. Interpolationsproblem 4: Sei f : [a,b]
4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen
196 KAPITEL 4. VEKTORRÄUME MIT SKALARPRODUKT 4. Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen In diesem Abschnitt betrachten wir Vektorräume über IR und über C. Ziel ist es, in solchen Vektorräumen
1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
8 Polynominterpolation
8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum
Mathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 19 8. Juli 2010 Kapitel 14. Gewöhnliche Differentialgleichungen zweiter Ordnung 14.1 Systeme gewöhnlicher linearer Differentialgleichungen erster
Musterlösung zum Übungsblatt Interpolation nach Newton, Nevill, Lagrange.
Angewandte Mathematik Ing.-Wiss., HTWdS Dipl.-Math. Dm. Ovrutskiy Musterlösung zum Übungsblatt Interpolation nach Newton, Nevill, Lagrange. Aufgabe 1 Approximieren Sie cos(x) auf [ /, /] an drei Stützstellen
Institut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen
3.5 Duale Vektorräume und Abbildungen
3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung
Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
3 Numerische Behandlung der Tschebyscheff-Approximation
Approximationstheorie 81 3 Numerische Behandlung der Tschebyscheff-Approximation Die Bestapproximation bezüglich einer Funktion f C(K) aus einem Haarschen Unterraum V C(K) läßt sich i.a. nicht in geschlossener
Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
4 Funktionenfolgen und normierte Räume
$Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei
Lineare Algebra und Numerische Mathematik für D-BAUG
R Käppeli L Herrmann W Wu Herbstsemester Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 9 Finden Sie eine Basis des Lösungsraums L R 5 des linearen
Die Interpolationsaufgabe besteht darin, eine (einfache) Funktion u n U n zu finden,
Kapitel 3 Interpolation 31 Einführung Bemerkung 31 Motivation, Aufgabenstellung Gegeben seien eine Funktion f C([a,b]) und x i [a,b], i = 0,n, mit a x 0 < x 1 < < x n b (31) Die Interpolationsaufgabe besteht
Kardinalfunktionen. Florian Badt. 2. Juni Universität des Saarlandes, Saarbrücken
Florian Badt 2. Juni 2015 Gliederung Grundlegende Problemstellung Ausgangspunkt: Lu = f Approximation der unbekannten Funktion: u(x) u N (x) = N n=0 a nφ n Minimierung des Residuums R(x; a 0, a 1,...,
3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform:
1. Aufgabe (9 Punkte) In dieser Aufgabe müssen Sie Ihre Antwort nicht begründen. Es zählt nur das Ergebnis. Tragen Sie nur das Ergebnis auf diesem Blatt im jeweiligen Feld ein. 0 1 3 a) Berechnen Sie die
Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 6. Aufgabe 6.1. Dr. V. Gradinaru K. Imeri. Herbstsemester 2018.
Dr. V. Gradinaru K. Imeri Herbstsemester 8 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 6 Aufgabe 6. Multiple Choice: Online abzugeben. 6.a) (i) Welche der folgenden
HM II Tutorium 1. Lucas Kunz. 24. April 2018
HM II Tutorium 1 Lucas Kunz 24. April 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Körper...................................... 2 1.2 Gruppen..................................... 2 1.3 Vektorraum...................................
Institut für Analysis und Scientific Computing E. Weinmüller WS 2017
Institut für Analysis und Scientific Computing TU Wien E. Weinmüller WS 27 L I N E A R E A L G E B R A F Ü R T P H, U E (.64) 2. Haupttest (FR, 9..28) (mit Lösung ) Ein einfacher Taschenrechner ist erlaubt.
Lineare Algebra II (SS 13)
Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer
Interpolation, lineare Gleichungen (mit und ohne Lösungen) und lineare Regression
Interpolation, lineare Gleichungen (mit und ohne Lösungen) und lineare Regression Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich [email protected]
Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
