Reduced-Rank Least Squares Modelle

Ähnliche Dokumente
Singulärwertzerlegung

Computergestützte Mathematik zur Linearen Algebra

Methode der kleinsten Quadrate

Latent Semantic Analysis. Christian Ebert & Fritz Hamm. Lineare Algebra IV: Diagonalisierungen. Latent Semantic. Analysis/Indexing. 12.

9. Vorlesung Lineare Algebra, SVD und LSI

Matrix- Algorithmen Householder- und Givens- Matrizen

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!

Mathematische Grundlagen

Tensoren in der Datenanalyse

47 Singulärwertzerlegung

D-INFK Lineare Algebra HS 2016 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Singulärwert-Zerlegung

9. Dezember 2015 TEXT MINING. Sebastian Wack

Lineare Algebra. 13. Übungsstunde. Steven Battilana.

III Das Symmetrische Eigenwertproblem (SEP)

Kurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011

Lineare Algebra und Geometrie II, Übungen

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Regularisierung in Bildrekonstruktion und Bildrestaurierung

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Klausur zu Grundlagen der Computermathematik

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

5 Lineare Ausgleichsrechnung

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate

Begleitmaterial zur Vorlesung Numerik II

Klausur zu Grundlagen der Computermathematik

Computer Vision. Klaus Diepold Lehrstuhl für Datenverarbeitung. 18. Juni l 1 z x. l 2. (R,T) Koordinatentransformation. Bild 1: Stereo Setup.

4 Lineare Ausgleichsrechnung

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012

2 Direkte Lösungsverfahren für lineare Gleichungen

IX. Das symmetrische Eigenwertproblem (SEP)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

Algorithmen und Datenstrukturen (für ET/IT)

Numerische Verfahren

D-INFK Lineare Algebra HS 2014 Marc Pollefeys Roman Glebov. Serie 14

Musterlösung Serie 21

6 Hauptachsentransformation

Überbestimmte Gleichungssysteme

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

Lineare Approximation

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

Mathematik I für MB/ME

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

6. Normale Abbildungen

Direkte Methoden für dünnbesetzte lineare Gleichungssysteme

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Probeprüfung Lineare Algebra I/II für D-MAVT

Der CG-Algorithmus (Zusammenfassung)

Lineare Algebra und Numerische Mathematik für D-BAUG. Winter 2016 Typ B

Pseudoinverse Matrizen

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind.

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

Mathematik I für MB und ME

Lineare Algebra, Prüfung mit Lösungen

Probeklausur zu Mathematik 2 für Informatik

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017

Klausurähnliche Aufgaben

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Algorithmen und Datenstrukturen (für ET/IT)

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Wiederholungsserie II

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Inhaltsverzeichnis. 1. Matrizen ZUSAMMENFASSUNG - LINEARE ALGEBRA 1 MATRIZEN

Quadratische Formen. und. Symmetrische Matrizen

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen

fj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1.

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

1. Referenzpunkt Transformation

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen

Sparse Hauptkomponentenanalyse

Lösungen Serie 5. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Wirtschafts- und Finanzmathematik

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

Lineare Gleichungssysteme

T2 Quantenmechanik Lösungen 7

Der Kern einer Matrix

Latent Semantic Indexing: Einführung und Experiment

Probabilistic Ranking Principle besagt, dass Rangfolge gemäß dieser Wahrscheinlichkeiten optimal ist

Klausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur.

Transkript:

16.12.2008

Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A = UΣV T = n i=1 σ i u i v T i Rang: rank(a) = {σ σ > 0} min(m, n) k i=1 σ i u i v T i = A k

Least Squares Problem Gegeben: überbestimmtes LGS Ax = b ohne Lösung (m > n) Gesucht: Approximative Lösung für x in Ax b = r (1) durch Minimierung des Residuenvektors r Mit Euklidischer Distanz Least Squares Problem genannt: min x Ax b 2 (2)

Das Least Squares Problem min x ( Ax b 2 ) (3) wird, angenommen x liegt im aufgespannten Raum der Basis Z k x = Z k y rank(z) = k mit k < rang(a) zum Problem min y ( AZ k y b 2 ) (4) Problem: Finde geeignete Basis Z k

Gegeben sei die SVD von A: A = UΣV T = Und damit die kleinste Norm Lösung: x = r i=1 r i=1 σ i u i v T i (5) u T i b σ i v i (6) Gesucht: Ein geeignete Basis Z k und die Lösung für x

Setze im : Z k = V k (7) x beschränkt auf den von den k rechten Singulärvektoren von A aufgespannten Raum Die ja nach den absteigenden Singulärwerten sortiert sind σ 1 σ 2... σ k (8)

Damit wird also Z k = V k in das Least Squares Problem eingesetzt: Ax b 2 2 AV k y b 2 2 UΣV T V k y b 2 2 ( ) Ik y b 2 2 UΣ U ( Σk 0 0 ) y b 2 2 (9a) (9b) (9c) (9d) (9e)

U U( ) y b 2 2 0 ) y U T b) 2 2 0 ) y U T b 2 2 ( Σk ( Σk ( Σk 0 ( Σk 0 ) ( U T y 1...k b Uk+1...r T b Σ k y U T 1...k b 2 2 + (10a) (10b) (10c) ) 2 2 (10d) r i=k+1 (u T i b) 2 (10e)

Somit gilt für y: Bzw. für x: Σ k y U T 1...k b 2 2 + r i=k+1 (u T i b) 2 (11) y = Σ 1 k UT k b (12) x k = V k Σ 1 k UT k b (13)

Beispiel 1.1 aus [Eld07, S. 4]. Dokumente d1: The Google matrix P is a model of the Internet. d2: P ij is nonzero if there is a link from Web page j to i. d3: The Google matrix is used to rank all Web pages. d4: The ranking is done by solving a matrix eigenvalue problem. d5: England dropped out of the top 10 in the FIFA ranking. Queries q1: ranking of Web pages q2: England in FIFA

Term d1 d2 d3 d4 d5 q1 q2 eigenvalue 0 0 0 1 0 0 0 England 0 0 0 0 1 0 1 FIFA 0 0 0 0 1 0 1 Google 1 0 1 0 0 0 0 Internet 1 0 0 0 0 0 0 link 0 1 0 0 0 0 0 matrix 1 0 1 1 0 0 0 page 0 1 1 0 0 1 0 rank 0 0 1 1 1 1 0 Web 0 1 1 0 0 1 0

Least Squares für b = q i : min y ( AV k y q i 2 ) (14) Relativer Fehler: AV k y q i 2 / q i 2 (15)

Wiederholung Householdertransformation Gegeben einen beliebigen Vektor v 0: Dann ist P eine symmetrische, orthogonale Matrix, wenn: P = I 2 v T v vv T (16) Gegeben zwei Vektoren x und y mit gleicher Länge, x 2 = y 2. Gesucht eine Householdertransformation die x nach y überführt: Px = y (17)

Setzt man v = x y: Px =y (I 2 v T v vv T )x =y x 2v T x v T v v =y (18a) (18b) (18c) v T v = x T x + y T x 2x T y = 2(x T x x T y) (19)

Da x T x = y T y gilt: Und somit: v T x = x T x y T x = v T v 2 (20) Px = x 2 v T x v T v v = x v = y (21)

mit Householdertransformationen Gegeben: C R mxn m n Gesucht obere Bidiagonalisierung ˆB: C = P Wobei P und W orthogonal sind. ) (ˆB W T (22) 0

Verfahren mit Householdertransformationen Householdertransformationen Pi T, W i abwechselnd auf C auf die Spalten P T i W i auf die Zeilen P und W sind dann die Produkte: P = P 1 P 2 P 3... P n R mxm W = W 1 W 2 W 3... W n 2 R nxn ˆB ist das so transformierte C

Beispiel mit C R 6x5 P T 1 C = P T 1 x x x x x x x x x x 0 x x x x x x x x x x = 0 0 x x x x x 0 x x x x x 0 Wobei P T 1 eine Householdertransformation ist.

0 0 0 0 0 P1 T CW 1 = 0 0 W 1 = 0 0 = C 1 0 0 0 0 ( ) 1 0 Wobei W 1 = und Z 0 Z 1 eine Householdertransformation ist. 1

0 0 0 0 0 0 P2 T C 1 W 2 = 0 0 0 0 = C 2 0 0 0 0

0 0 0 0 0 0 P T CW = 0 0 0 0 0 0 = 0 0 0 0 0 0 0 0 0 ) (ˆB 0

Allgemein hat ˆB R nxn die Form: β 1 α 1 β 2 α 2 ˆB =...... β n 1 α n 1 β n Und W enthält die orthogonale Matrix Z R n 1xn 1 : ( ) 1 0 W = 0 Z

Zum lösen des Least Squares Problem: Setzen wir C = ( b A ) : min x b Ax 2 P T CW = P T ( b A ) W

P T CW = P T ( b A ) ( ) 1 0 0 Z (23a) = ( P T b P T AZ ) (23b) ( ) β1 e = 1 B (23c) 0 0 wobei B: α 1 β 2 α 2 B =...... β n 1 α n 1 β n

Wieder angenommen y = Z T x: b Ax 2 = ( b A ) ( ) 1 x 2 (24a) ) ( 1 = P T ( b A ) ( 1 0 0 Z = ( P T b P T AZ ) ( 1 y = β 1 e 1 By 2 bzw. als Least Squares Problem: ) 2 (24b) y ) 2 (24c) (24d) min y ( β 1 e 1 By 2 ) (25)

Approximation der Lösung: min y ( AZ k y b 2 ) (26) min y ( P k+1 Z k+1 y b 2 ) = min y ( B k+1 β 1 e 1 2 ) (27) wobei B k+1 : α 1 β 2 α 2 B k+1 =...... β k β 1 0 β 1 e 1 = 0 α k 0 β k+1 0

1. Ziehen sie das Beispiel für die truncated SVD anhand der Matrix aus dem letzten Vortrag Latent Semantic Indexing von Florian Frankenberger nach.

Lars Eldén. Matrix Methods in Data Mining and Pattern Recognition. Society for Industrial and Applied Mathematics, Philadelphia, PA, USA, 2007. Gene H. Golub and Charles F. van Loan. Matrix Computations. John Hopkins University Press, Baltimore and London, 3rd edition, 1996. Gilbert Strang. Lineare Algebra. Springer, 2003.