Regularisierung in Bildrekonstruktion und Bildrestaurierung
|
|
- Karoline Roth
- vor 6 Jahren
- Abrufe
Transkript
1 Regularisierung in Bildrekonstruktion und Bildrestaurierung Ulli Wölfel 15. Februar Einleitung Gegeben seien Daten g(x, y), die Störungen enthalten. Gesucht ist das (unbekannte) Originalbild ohne Störungen. Dabei wird ein Störungsmodell verwendet, mit dem man versucht, die Störungen zu beschreiben: g i = g(x i, y i ) = h i (x, y )f(x, y )dx dy, 1 i N g (1) mit h(x, y) = Kern das Störungssystems (Point Spread Function). Wir betrachten hier einen Gauß-blur als PSF, der zudem separabel ist, d.h. die Funktion h(x, y) läßt sich als Produkt zweier Funktionen h 1 (x) und h 2 (x) darstellen: h(x, y) = e (x2 +y 2 )/σ = e x2 /σ e y2 /σ. Das gesuchte Bild f(x, y) läßt sich als gewichtete Summe von N g Basisfunktionen Φ j (x, y), j = 1,..., N g schreiben: N f f(x, y) = f j Φ j (x, y). (2) j=1 Beispielsweise kann man die f j als die Werte einer N M(N f = NM) Matrix ansehen. Setzt man nun (2) in (1) ein, so erhält man: N f f j j=1 h i (x, y )Φ j (x, y)dx dy, 1 i N g, 1 j N f. (3) Obige Gleichung läßt sich auch als Matrixgleichung schreiben, wobei H eine N g N f Matrix ist: g = Hf. In der Praxis kommt oft noch ein Vektor q hinzu, der zusätzliche Störungen darstellt: g = Hf + q. 1
2 2 Least - Squares und Generalized Solution Das zu lösende Lineare Gleichungssystem ist schlecht konditioniert, so daß wir als ersten Ansatz folgende Methode verwenden: Least-Squares (Methode der kleinsten Quadrate) wobei ˆf LS = arg min f g Hf 2 2 (4) z 2 2 = i z 2 i die euklidische Norm bezeichnet. Hat H vollen (Zeilen-) Rang, so ist dim(kern(h)) = 0 und wir erhalten die Normalengleichungen: (H T H) ˆf LS = H T g. (5) Ist dim(kern(h)) < 0, so ist die Lösung nicht eindeutig, und wir suchen unter den kleinsten Quadraten die Lösung mit der kleinsten Norm (Generalized Solution): ˆf + = arg min f 2 subject to min g Hf 2. (6) f Probleme der Generalized Solution: Bildbereiche, die in Kern(H) liegen, werden nicht rekonstruiert, auch wenn gute Schätzungen möglich sind. Die Generalized Solution ist instabil in dem Sinne, daß kleine Veränderungen der Daten zu großen Änderungen in der Lösung führen. Ursache hierfür sind kleine Singulärwerte und hochfrequente Singulärvektoren. 3 SVD - Singular Value Decomposition Die SVD ist ein wichtiges Werkzeug zur Untersuchung von Problemen der Linearen Algebra und insbesondere von (6). Definition 3.1. (Singulärwerte) Sei A eine N g N f Matrix mit Rang r, dann heißen die positiven Wurzeln d ν = λ ν (ν = 1, 2,..., r) aus den Eigenwerten der positiv semidefiniten Matrix Matrix A T A Singulärwerte von A. Definition 3.2. (Singulärvektoren) Sei A eine N g N f Matrix, dann heißen die Eigenvektoren der Matrix AA T Linkssingulärvektoren und die Eigenvektoren der Matrix A T A Rechtssingulärvektoren. 2
3 Definition 3.3. (Singulärwertzerlegung) Sei H eine N g N f Matrix, dann ist p H = USV T = σ k u k vk T die SVD von H, wobei U eine unitäre (d.h. U T U = E) N g N g Matrix (deren Spalten u i die Linkssingulärvektoren sind), V eine unitäre N f N f Matrix (deren Spalten v i die Rechtssingulärvektoren sind) und S eine N g N f Diagonalmatrix mit den Singulärwerten auf der Hauptdiagonalen (und Nullen sonst) ist. Die Menge der Tripel (, u i, v i ) mit 1 i p heißt das Singulärsystem von H. Satz 3.1. Sei H eine N g N f Matrix, p = min(n g, N f ), und r der Rang von H, so gilt... σ r > σ r+1 =... = σ p = 0. Beweis. Die Anzahl der von Null verschiedenen Elemente einer Diagonalmatrix ist gleich ihrem Rang. Da in der Zerlegung H = USV T die Matrizen U und V vollen Rang haben, ist rang(h) = rang(s) = r und damit sind alle Singulärwerte mit i > r Null. Satz 3.2. Mit der SVD läßt sich die Generalized Solution (6) wie folgt ausdrücken: ˆf + u T i = g v i. Beweis. k=1 Hf g 2 2 = U T Hf U T g 2 2 = (U T HV )V T f U T g 2 2 = SV T f U T g 2 2 = Sα U T g 2 2 mit α = V T f bzw. V α = f = m ( α i u T i g) 2 + (u T i g) 2 jetzt wähle αi = ut i g/, i = 1,..., r. ( αi u T i g) = 0 ist Lösung für beliebige α r+1,..., α n i=r+1 f = V [α 1,..., α r, α r+1,..., α m ] T = ˆf + = V [α1,..., αr, 0,..., 0] T hat kleinste 2-Norm. u T i g v i 3
4 4 Direkte Regularisierungsverfahren 4.1 TSVD (Truncated SVD) Die Stabilitätsprobleme der Generalized Solution stammen von der großen Verstärkung des Noise - Terms durch kleine Singulärwerte. Aus dieser Beobachtung läßt sich leicht folgende Lösung ableiten: Definition 4.1. TSVD (Truncated SVD) mit und ˆf T SV D (α) = w i,α = { 1 i k(α) 0 i > k(α) k(α) = α 1. w i,α u T i g v i (7) Da bei dieser Methode ab einem bestimmten i die Singulärwerte einfach auf Null gesetzt werden, gehen Bildkomponenten, die nicht in den Daten beobachtet werden können, nicht in die Lösung ein (wie auch schon in der Generalized Solution). Die TSVD kann auch folgendermaßen interpretiert werden: Die Matrix H wird durch eine besser konditionierte Matrix H k mit (vermindertem) Rang k ersetzt: ˆf T SV D (α) = argmin f 2 subject to min g H k f Tikhonov Regularisierung Bei diesem weit verbreiteten Verfahren besteht die Hauptidee darin, Vorwissen über das Bild durch einen zusätzlichen Term direkt einfließen zu lassen. Definition 4.2. Tikhonov Regularisierung ˆf T ik (α) = arg min f g Hf α 2 Lf 2 2. (8) α ist der Regularisierungsparameter, der die Balancierung (Gewichtung) zwischen den beiden Termen regelt. Lemma 4.1. Der Minimierer von (8) ist die Lösung der folgenden Normalengleichungen: (H T H + α 2 L T L) ˆf T ik (α) = H T g. (9) Beweis. Zunächst formen wir den Ausdruck um: g Hf α 2 Lf 2 2 g T g 2f T H T g + f T H T Hf + α 2 f T L T Lf 4
5 Leiten ihn nach f ab: und bestimmen das Minimum: f = 2H T Hf 2H T g + 2α 2 L T Lf (H T H + α 2 L T L)f = H T g Satz 4.1. Zu (9) existiert eine Lösung und ist eindeutig, wenn Kern(H) und Kern(L) verschieden sind. Wir betrachten zwei Fälle: 1. L = E In diesem Fall messen wir die Größe oder Energie von f; damit verhindern wir, daß die Pixelwerte von f zu groß werden. α kontrolliert in diesem Fall das Verhältnis zwischen Datentreue und der Energie der Lösung. Benutzen wir die SVD, so läßt sich (9) in diesem Fall auch folgendermaßen ausdrücken ( in Analogie zu (7) ): mit ˆf T ik (α) = w i,α = w i,α u T i g v i (10) σ2 i σ 2 i + α2. In diesem Fall ( L = E ) ist Tikhonov ähnlich wie TSVD und rekonstruiert ebenfalls keine Bildkomponenten, die nicht aus den Daten hervorgehen. 2. L E L wird normalerweise als Ableitung oder Gradient gewählt, um durch Lf die Rauhheit zu messen. Damit erhalten wir Lösungen, bei denen die hochfrequente Energie abgeschwächt ist, und gleichzeitig ein geglättetes Bild. Es kann gezeigt werden, daß in diesem Fall ( L E ) auch nicht in den Daten vorhandene Bildteile rekonstruiert werden (Extrapolation). 4.3 Weitere Regularisierungsverfahren Es existieren eine Reihe weiterer Regularisierungsverfahren, darunter Abwandlungen der hier behandelten, von denen besonders die Total Least Squares - Methode, bei der H und g durch Ĥ und ĝ so angenähert werden, daß Ĥf = ĝ eine Lösung hat, aufgrund der guten Ergebnisse recht beliebt ist. 5
6 5 Effiziente Implementierung Da bereits bei einem Bild mit 256 x 256 Pixeln die Matrix H, die die PSF beschreibt, Elemente enthält, ist die Durchführung einer SVD auf normaler Hardware nicht ohne weiteres möglich, so daß sowohl beim Speicherplatzbedarf als auch bei der Laufzeit auf Effizienz geachtet werden muß. Ein Gedanke hierbei ist es, die SVD der PSF-Matrix nicht direkt abzuspeichern, sondern nur die gerade benötigten Spalten der SVD zu berechnen. Da die Matrix H eine Block-Toeplitz-Struktur aufweist und die blur-funktion separabel ist, läßt sich die SVD von H folgendermaßen zerlegen: Satz 5.1. Seien H 1, H 2 Toeplitz-Matrizen der separierten blur Funktion. Dann gilt: H = H 1 H 2, wobei das Kronecker-Produkt bezeichnet. Nun kann die SVD von H1 und H2 (die nur noch so groß wie das Bild selbst sind) ausgerechnet werden, und wir erhalten die SVD von H: H = H 1 H 2 = (U 1 S 1 V1 T ) (U 2 S 2 V2 T ) = (U 1 U 2 )(S 1 S 2 )(V1 T V2 T ) = USV T. Beispielprogramme in Matlab sind unter der Adresse woelfel/hauptseminar/bildverarbeitung/ zu finden Literatur [1] David Bau, III, Lloyd N. Trefethen: Numerical Linear Algebra, SIAM, 1997, [2] Al Bovik: Handbook of Image and Video Processing, Academic Press, 2000, [3] Rafael C. Gonzalez, Richard E. Woods: Digital Image Processing, Addison Wesley, 1993, [4] Per Christian Hansen: Regularization Tools,
Singulärwert-Zerlegung
Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrReduced-Rank Least Squares Modelle
16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrSingulärwertzerlegung
LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1
MehrBeispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren
Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrKLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:
KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur
MehrComputergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!
Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
Mehr9. Vorlesung Lineare Algebra, SVD und LSI
9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent
Mehr9. Übung zur Linearen Algebra II -
9. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).
MehrÜbungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion
Übungen zur Ingenieur-Mathematik III WS 11/1 Blatt 8 3.11.11 Aufgabe 5: Berechnen Sie den kritischen Punkt der Funktion fx, y 3x 5xy y + 3 und entscheiden Sie, ob ein Maximum, Minimum oder Sattelpunkt
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
Mehr7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?
Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrÜberbestimmte Gleichungssysteme, Regression
Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrBlockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :
Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
MehrAufgabe 2 (5 Punkte) y = 1 x. y + 3e 3x+2 x. von f. (ii) Für welches u in R 2 gilt f(u) = [3, 3, 4] T? x 2 + a x 3 x 1 4x 2 + a x 3 2x 4
Prof. Dr. B. Billhardt Wintersemester 4/5 Klausur zur Vorlesung Höhere Mathematik II (BNUW) 4.3.5 Aufgabe (a) Ermitteln Sie die Nullstellen des Polynoms p(z) = z 4 4z 3 + 3z + 8z. Tipp: p( + i) =. (b)
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
(2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m
Mehr4.4 Hermitesche Formen
44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung
Mehr1. Filterung im Ortsbereich 1.1 Grundbegriffe 1.2 Lineare Filter 1.3 Nicht-Lineare Filter 1.4 Separabele Filter 1.
. Filterung im Ortsbereich. Grundbegriffe. Lineare Filter.3 Nicht-Lineare Filter.4 Separabele Filter.5 Implementierung. Filterung im Frequenzbereich. Fouriertransformation. Hoch-, Tief- und Bandpassfilter.3
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
MehrEigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
MehrFehler- und Ausgleichsrechnung
Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt
MehrD-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den
D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes
MehrKlausur zur Vorlesung Lineare Algebra I
Heinrich-Heine-Universität Düsseldorf 23.7.2 Mathematisches Institut Lehrstuhl für Algebra und Zahlentheorie Prof. Dr. Oleg Bogopolski Klausur zur Vorlesung Lineare Algebra I Bearbeitungszeit: 2 min Bitte
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
MehrHilfsblätter Lineare Algebra
Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrÖkonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
MehrDas Prinzip der Suchmaschine Google TM
/9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrLineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche
Mehr3 Matrizen und Lineare Gleichungssysteme
3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrLineare Algebra und Numerische Mathematik für D-BAUG. Sommer 2016
P. Grohs T. Welti F. Weber Herbstsemester 2015 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Name a a Note Vorname Leginummer Datum 19.08.2016 1 2 3 4 5 6 Total 7P 11P 10P 11P
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Mehr4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
MehrAufgaben zur Vorlesung: Lineare Algebra und analytische Geometrie I
Institut für Mathematik Blatt Prof. Dr. B. Martin, H. Süß Abgabe: 0.4. Aufgaben zur Vorlesung: Lineare Algebra und analytische Geometrie I Aufgabe : 2 Punkte Stellen Sie die Gleichung der Ebene auf, in
Mehr05. Lineare Gleichungssysteme
05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrOptimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
MehrQuadratische Formen. und. Symmetrische Matrizen
Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrMatrizen und Determinanten, Aufgaben
Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrNumerik I. Aufgaben und Lösungen
Universität zu Köln SS 2009 Mathematisches Institut Prof Dr C Tischendorf Dr M Selva, mselva@mathuni-koelnde Numerik I Musterlösung Übungsblatt 4, Kondition (5 Punkte) Aufgaben Lösungen (4 Punkte) Zeigen
MehrMatrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle
2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
MehrKonvergenz im quadratischen Mittel und die Parsevelsche Gleichung
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
MehrKlausurähnliche Aufgaben
Sommersemester 2007/08 Lineare Algebra Klausurähnliche Aufgaben Aufgabe 1 Seien v 1, v 2, v 3, v 4, v 5, v 6 die Vektoren in R 5 mit v 1 = (1, 2, 3, 1, 2), v 2 = (2, 4, 6, 2, 4), v 3 = ( 1, 1, 3, 0, 3),
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrKLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG
KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG Aufgabe 1 Es sei K ein Körper, V ein K-Vektorraum, und seien v 1,..., v n V (n N). (a) Definieren Sie, wann die endliche Familie v 1,...,
Mehr4.2 Die adjungierte Abbildung
4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,
MehrEinführung in die Vektor- und Matrizenrechnung. Matrizen
Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrLösungsskizze zur Wiederholungsserie
Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrImplizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem
Implizite Funktionen Ist für eine stetig differenzierbare Funktion f : R n R m R n f (x, y ) = (0,..., 0) t, det f x (x, y ) 0, so lässt sich das Gleichungssystem f k (x 1,..., x n, y 1,..., y m ) = 0,
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrÜbungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax
Mehr4 Der Gauß Algorithmus
4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x
MehrEinführung in die MIMO-Technik: Räumliches Multiplexing. Luciano Sarperi,
Einführung in die MIMO-Technik: Räumliches Multiplexing Luciano Sarperi, 22.03.2017 Inhalt Überblick Multi-Antennen Systeme Was ist räumliches Multiplexing? Wann wird räumliches Multiplexing angewandt?
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
MehrGrundlegende Definitionen aus HM I
Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen
MehrLineare Algebra. 2. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 6, 017 1 Erinnerung: Lineare Gleichungssysteme LGS Der allgemeine Fall hat m lineare Gleichungen, n
MehrLösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
MehrLineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 3 und lineare Gleichungssysteme und
MehrD-INFK Lineare Algebra HS 2014 Roman Glebov Marc Pollefeys. Serie 13
D-INFK Lineare Algebra HS 2014 Roman Glebov Marc Pollefeys Serie 13 1. Um einen Tisch sitzen 7 Zwerge. Vor jedem steht ein Becher mit Milch. Einer der Zwerge verteilt seine Milch gleichmässig auf alle
Mehr