Singulärwertzerlegung

Ähnliche Dokumente
Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra - alles was man wissen muß

A Matrix-Algebra. A.1 Definition und elementare Operationen

3.3 Eigenwerte und Eigenräume, Diagonalisierung

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Numerische Behandlung des Eigenwertproblems

Eigenwerte und Eigenvektoren von Matrizen

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

6 Symmetrische Matrizen und quadratische Formen

Computer Vision SS Skript

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer.

Kapitel 15. Lösung linearer Gleichungssysteme

Statistische Methoden

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

Beispiel zur Lösung eines Gleichungssystems : 6 y + z = x + 3 y 3 z = x 3 y =

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Hauptkomponentenanalyse PCA

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Risikomessung und Value at Risk Wintersemester 2013/14

Lösungen zum 3. Aufgabenblatt

Günter M. Gramlich. Mathematik-Studienhilfen. Eine Einführung. Lineare Algebra. 2., aktualisierte Auflage

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: Weitere Informationen oder Bestellungen unter

Kapitel IR:III (Fortsetzung)

Approximation von Tensoren

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte

2 Die Darstellung linearer Abbildungen durch Matrizen

Mathematik III für Ingenieure

Berechnung von Eigenwerten und Eigenvektoren

Leitfaden Lineare Algebra: Determinanten

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

Lineare Algebra und analytische Geometrie II (Unterrichtsfach)

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung

Hans Walser, [ a] Wurzeln aus Matrizen

Bildverarbeitung Herbstsemester Kanten und Ecken

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

Musterlösungen zur Linearen Algebra II Blatt 5

Lineare Gleichungssysteme

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Wie Google Webseiten bewertet. François Bry

Lösung des Kleinste-Quadrate-Problems

Lineare Gleichungssysteme

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33

11 Normalformen von Matrizen

Einführung in MATLAB

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

7. Numerik mit MATLAB

Lineare Algebra und Computer Grafik

Skript zur Vorlesung Höhere Mathematik für Bachelorstudiengänge. Prof. Dr. R. Herzog. gehalten im SS2013 Technische Universität Chemnitz

Wolfgang Kohn Riza Öztürk. Mathematik für Ökonomen. Ökonomische Anwendungen der linearen. Algebra und Analysis mit Scilab

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

ÜBERBLICK ÜBER DAS KURS-ANGEBOT

Einführung in die Tensorrechnung

Inhaltsverzeichnis 1 Lineare Gleichungssysteme I

Elemente der Analysis II

Mathematischer Vorkurs für Physiker WS 2009/10

5. Vorlesung. Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung

7 Lineare Abbildungen und Lineare Gleichungssysteme

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Übungsaufgaben LAAG I. für Lehramtsstudenten GS, MS, BS

Aufgabe 1. Sei A Mat(n n, R) mit Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A + 3E n ).

Multivariate Analyse: FS Ergänzungen zur Mitschrift der Vorlesung über Multivariate Datenanalyse von Prof. A. Barbour

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

ax 2 + bx + c = 0, (4.1)

4. Übungsblatt Matrikelnr.:

Einführung in die Kodierungstheorie

Lineare Gleichungssysteme I (Matrixgleichungen)

Was ist MATLAB? Typische Anwendungen

Numerisches Programmieren

Ausgleichungsrechnung I

Fotografie * Informatik * Mathematik * Computer-Algebra * Handreichung für Lehrer

Ausgewählte Aufgaben zum Grundbereich des Staatsexamens in Mathematik. Lineare Algebra. zusammengestellt von

Statistik II. Universität Ulm Abteilung Stochastik. Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2007/08

2 Darstellung von Zahlen und Zeichen

Zur Numerik großdimensionaler Eigenwertprobleme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach Ilmenau

Entwurf robuster Regelungen

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

H. Gruber, R. Neumann. Erfolg im Mathe-Abi. Übungsbuch für die optimale Vorbereitung in Analysis, Geometrie und Stochastik mit verständlichen Lösungen

Klausuraufgabensammlung Mathematik. Klausuraufgaben zur Mathematik 1-3 von Wolfgang Langguth

Kapitel 0. Einführung. 0.1 Was ist Computergrafik? 0.2 Anwendungsgebiete

Bestimmung einer ersten

Theoretische Grundlagen der Informatik WS 09/10

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Installation. Arbeiten mit der MATLAB-Entwicklungsumgebung. MATLAB als Taschenrechner mit Matrix- und Vektorrechnung.

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

2.1 Codes: einige Grundbegriffe

Mathematik für Ökonomen

S. Bouattour, D. Paulus 21. Mai 2003

Modellierung, Simulation, Optimierung Diskretisierung 1

Lösungsvorschläge zu ausgewählten Übungsaufgaben aus Storch/Wiebe: Lehrbuch der Mathematik Band 2, 2.Aufl. (Version 2010), Kapitel 5

Digitale Bildverarbeitung Einheit 8 Lineare Filterung

Segmentierung von Faserstrukturen in tomographischen Aufnahmen. Workshop Analyse der Mikrostruktur von Faserverbundwerkstoffen in Volumenbildern

Transkript:

LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1 Einleitung Jede beliebige Matrix A kann in (sehr gut verarbeitbare) zwei orthogonale (sogar orthonormale) Matrizen U und V und eine diagonale Matrix Σ zerlegt werden. Anders als z.b. bei der QR-Dekomposition wird sowohl der Zeilenraum, als auch der Spaltenraum einer m n-matrix behandelt. Man findet orthonormale Basen v 1,..., v r 1 für den Zeilenraum und u 1,..., u r für den Spaltenraum. Figure 1: Die Basen U und V bewirken Drehungen und Spiegelungen. Die Diagonalmatrix Σ ist eine Streckmatrix. 1.1 Was heißt das? Nimmt man eine m n-matrix, so ist es nicht allzu schwer, im Zeilenraum aufeinander orthogonale Basisvektoren v i m d.h. eine orthonormale Basis V zu finden, etwa mit dem Gram-Schmidt-Verfahren. Es soll zusätzlich aber auch gelten, dass die Vektoren Av i ebenfalls orthogonal sind, d.h. jedes A i zeigt in die Richtung des jeweiligen Spaltenvektors u i, der eventuell mit einem Skalar σ i multipliziert werden muss. Mit anderen Worten: Wir suchen eine orthonormale Basis für A in R n, die in 1 r ist die Dimension/der Rang der Matrix, d.h. in R 3 gibt es v 1, v 2, v 3 etc. 1

eine ebenfalls orthonormale Basis in R m überführt wird. Es gilt also für alle v 1,...v r und u 1,..., u r in A: Av i = σ i u i, d.h. (Beispielschema mit m = n = 2): d.h. in Matrixform: AV = UΣ oder A = UΣV T Die Spaltenvektoren von V und U, v i und u i nennt man Singulärvektoren, die Elemente σ i der Diagonalmatrix Σ sind die Singulärwerte. 1.2 Warum geht es nicht mit weniger Faktoren? Außer in Spezialfällen ist es nirgends garantiert, dass die Multiplikation einer Matrix A mit einer orthogonalen Basis zu einem ebenfalls orthogonalen Ergebnis führt. Wenn man nur eine orthogonale Basis Q wählt, ist Σ = Q 1 AQ nicht diagonal 2! (Es sei denn, A ist zufällig symmetrisch, positiv, und definit, dann gilt A = QΣQ T = QΛQ T ). Die SVD soll für beliebige Matrizen gelten. In dem Sonderfall, falls A symmetrisch ist, kann man die Eigenvektoren der Matrix als Basen wählen. Bei nicht-symmetrischen Matrizen ist die Basis aus Eigenvektoren jedoch nicht orthonormal und man benötigt zwei verschiedene orthogonale Matrizen. 1.3 Schematische Darstellung einer SVD Die Matrix U wird noch in U 1 und U 2 partitioniert, wobei U 1 R m n, sodass die thin SVD A = U 1 ΣV T lautet. 2 Erinnerung: Da es sich um orthogonale Basen handelt, ist die Inverse stets gleich der transponierten Matrix. Q 1 = Q T 2

2 Interpolation: Eigenwerte und Eigenvektoren Eine symmetrische, positive, definite Matrix A hat orthogonale Eigenvektoren und positive Eigenwerte λ. 2.1 Was sind Eigenvektoren und Eigenwerte? Wenn man einen beliebigen Vektor mit einer Matrix A multipliziert, so ändert er in der Regel seine Richtung. Bestimmte Vektoren x, die Eigenvektoren zeigen jedoch in dieselbe Richtung wie ihr Produkt Ax mit der Matrix. Es gilt also Ax = λx, wobei λ ein sogenannter Eigenwert ist. Wenn man einen Vektor mit A multipliziert, wird dabei also jeder Eigenvektor mit seinem Eigenvert multipliziert. Für alle Eigenwerte λ gilt: λ ist Eigenwert von A gdw. det(λi n A) = 0, also A λi singulär ist (im trivialen Fall, dass der Eigenwert = 0 ist, liegt der Eigenvektor im Nullraum). Um die Eigenvektoren bei gegebenen Eigenwerten zu erhalten, gilt es, die Gleichung Ax = λx, d.h. aufgelöst (A λi)x = 0 für jedes λ zu lösen 3. Weiterhin gilt: Das Produkt der n Eigenwerte ist gleich der Determinante von A. 2.2 Beispiel einer Eigenwert-Berechnung [ ] 1 2 Sei A = die Beispielmatrix. Da sie singulär ist, ist die Determinante = 0. 2 4 Dadurch ist auch eine der Eigenwerte (2 2-Matrizen haben i.d.r. zwei Eigenwerte) Null. Für die Berechnung des zweiten Eigenwertes wird zunächst λi = ( ) λ 0 [ ] 0 λ von A 1 λ 2 abgezogen: A λi = 2 4 λ Dann berechnet man die [ Determinante ] dieser Matrix (Für 2 2-Matrizen lautet 1 λ 2 die Formel ad bc): det = (1 λ)(4 λ) (2)(2) = λ 2 4 λ 2 5λ; λ 1 = 0, λ 2 = 5 3 Für kleine Matrizen können Eigenwerte auch per trial and error festgestellt werden. 3

3 Berechnung der SVD einer Matrix [ ] 2 2 Sei A = eine Matrix. Wir suchen Vektoren v 1 1 1, v 2 im Zeilenraum, R 2 und u 1, u 2 im Spaltenraum, R 2 und zwei skalare Werte in einer Diagonalmatrix, σ 1 > 0, σ 2 > 0. Figure 2: Bei der Singulärwertzerlegung wählt man Basen mit Av i = σ 1 u i Um nun zuerst V zu berechnen, berechnet man die symmetrische Matrix [ ] 5 3 A T A = (V Σ T U T )(UΣV T ) = 3 5 [ ] [ ] 1 1 mit den aufeinander senkrecht stehenden Eigenvektoren und. Diese werden auf Einheitsvektoren normalisiert: v 1 = 1 1 [ ] [ ] 1/ 2 1/ 1/ 2, v 2 = 2 1/. 2 Die Eigenwerte sind 8 und 2. Für AA T wären es die gleichen, aber die Reihenfolge der Eigenwerte muss beachtet werden, d.h. der erste Eigenvektor wäre hier (1,0). U kann durch Kürzen von AA T gefunden werden, da AA T = (UΣV T )(V Σ T U T ), oder durch Multiplikation von A mit v 1 und v 1, da diese in der gleichen Richtung wie u 1 und u 2 liegen. Av 1 = [ 2 2 1 1 ] [ ] 1/ 2 1/ = 2 [ ] 2/ 2 d.h. der Einheitsvektor ist u 0 1 = 4 [ ] 1 0

Av 1 = [ ] [ ] 2 2 1/ 2 1 1 1/ 2 = [ 0 2 ] d.h. der Einheitsvektor ist u 2 = Da Av 1 = 2 2u 1 ist, ist der erste Singulärwert σ 1 = 2 2. Quadriert gibt das 8 einen Eigenwert von A T A. Analog gilt: σ 2 = 2, und σ2 2 = 2, der zweite Eigenwert von A T A. Die vollständige Singulärwertzerlegung von A ist also UΣV T bestimmt: [ ] [ ] [ ] [ ] 2 2 1 0 2 2 = 1/ 2 1/ 2 1 1 0 1 2 1/ 2 1/ 2 4 Ergebnis Mit der Singulärwertzerlegung werden orthogonale Basen für die 4 fundamentalen Unterräume einer beliebigen Matrix gefunden. v 1,..., v r : orthonormale Basis für den Zeilenraum (Dimension r) u 1,..., u r : orthonormale Basis für den Spaltenraum (Dimension r) [ ] 0 1 v r+1,..., v n : orthonormale Basis für den Nullraum von A, d.h. Kern von A (Dimension n r) u r+1,..., u m : orthonormale Basis für den Nullraum von A T, d.h. Kern von A T (Dimension m r) 5 Anwendungen In der Praxis findet man die Singulärwertzerlegung oft bei diversen approximativen Verfahren: Kompression etc. 5.1 Matrix-Approximation Wenn A eine Matrix mit niedrigem Rang und einem leichten Rauschen N ist, d.h. A = A 0 + N, wobei N im Vergleich zu A 0 sehr klein ist, wird die Anzahl der großen Singulärwerte oft als den numerischen Rang einer Matrix bezeichnet. Wenn man den korrekten Rang von A 0 feststellen kann, entweder durch Schätzung oder durch Untersuchung der Singulärwerte, kann man das Rauschen entfernen, indem man sich A durch eine Matrix mit dem korrekten Rang annähert. D.h. wenn man die k größten Singulärwerte auswählt, und die ihnen entsprechenden Singulärvektoren aus U und V, erhält man die k-rangige Approximation zur Matrix mit der geringsten Error-Rate. Diese Norm ist die Frobenius-Norm. 5.2 Beispiel einer Anwendung: Bildkompression Das Pixelraster eines digitalen Bildes ist im Grunde eine Matrix, wo jedes Pixel einen Eintrag in der Matrix repräsentiert und einen Wert trägt. Für ein 512x256- Bild hat man 512 = 2 9 Pixel in jeder Zeile und 256 = 2 8 Pixel in jeder Spalte, d.h. eine Matrix mit 2 17 Einträgen. 5

Beim Komprimieren geht es darum, die Anzahl der Einträge zu verringern, ohne die Bildqualität groß zu verschlechtern. Natürlich kann man das Raster einfach vergröbern, z.b. Quadrate von jeweils 4 Pixeln zu einem Durchschnitts-Farb-Wert zusammenfassen. Dieses Verfahren führt aber schnell zu schlechten Ergebnissen. Wenn man aber Singulärwertzerlegung anwendet, ist es in idealen Fällen möglich, die Matrix auf Rang 1 zu reduzieren (oder, für bessere Ergebnisse, z.b. 5 Rang-1- Matrizen), was zu einer sehr guten Kompressionsrate führt. Konkret heißt dies: Die beste Approximation zu der Originalmatrix A ist die Matrix σ 1 u 1 v1 T, d.h. der größte Singulärwert σ 1 und die dazu korrespondierenden Singulärvektoren u 1 und v 1. Quellen Eldén, Lars (2007). Matrix Methods in Data Mining and Pattern Recognition. Siam, Philadelphia. Strang, Gilbert (2003). Lineare Algebra. Springer, Berlin. 6