Principal Component Analysis (PCA)

Ähnliche Dokumente
Unüberwachtes Lernen

Tracking. Einführung. Allgemeiner Systemaufbau. Objektlokalisation: Template-Matching. Prädiktionsfilter: Kalman

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

Selbstständiges Lernen

2. Isotropie. Beweis: (i) (ii): β U ist nicht ausgeartet. U U = {0} (ii) (iii): β U ist nicht ausgeartet. Da β nicht ausgeartet ist, gilt U = U:

Einführung in die Hauptkomponentenanalyse

PCA based feature fusion

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Multivariate Verfahren

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Nichtlineare Klassifikatoren

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

und Unterdeterminante

und Unterdeterminante

Extremalprobleme mit Nebenbedingungen

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Support Vector Machines (SVM)

Ausgewählte Lösungen zu den Übungsblättern 9-10

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra II (SS 13)

WS 2012/2013. Hinweise

Lösungen der Aufgaben zu Kapitel 11

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sparse PCA. Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Statistik, Datenanalyse und Simulation

Variante A. Hinweise

Lineare Algebra II Lösungen der Klausur

Berechnung der Determinante

Modulprüfung Mathematik I Fachrichtung: Computer Science in Engineering, Computervisualistik, Informatik, Wirtschaftsinformatik WS 2013/

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

(a), für i = 1,..., n.

Serie 1: Eigenwerte & Eigenvektoren

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

5.Tutorium Multivariate Verfahren

4 Lineare Abbildungen Basisdarstellungen

3.7 Eigenwerte und Eigenvektoren

4.2 Die adjungierte Abbildung

47 Singulärwertzerlegung

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

1. Referenzpunkt Transformation

9. Vorlesung Lineare Algebra, SVD und LSI

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Linear nichtseparable Probleme

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Multivariate Verteilungen. Gerhard Tutz LMU München

Die Klassifikation der sieben Friesgruppen

Eigenwerte (Teschl/Teschl 14.2)

6 Symmetrische Matrizen und quadratische Formen

Klausur Sommersemester 2011 Tensorrechnung für Ingenieure Musterlösung

Serie 10: Inverse Matrix und Determinante

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

j 1,m 1 ;j 2,m 2 J 2 1,2 j 1, m 1 ; j 2, m 2 = j 1,2 (j 1,2 + 1) j 1, m 1 ; j 2, m 2, (3)

Kontrollfragen und Aufgaben zur 3. Konsultation

Eigenwerte (Teschl/Teschl 14.2)

Kapitel 11 Eigenwerte und Eigenvektoren

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme

Übungen zu M1 WS 2007/2008

T2 Quantenmechanik Lösungen 7

Lineare Regression. Volker Tresp

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

BZQ II: Stochastikpraktikum

40 Lokale Extrema und Taylor-Formel

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Geometrische Deutung linearer Abbildungen

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4.

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

Sparse Hauptkomponentenanalyse

Lineare Algebra. 9. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Modulteilprüfung Geometrie (BaM-GS), Probeklausur

Methoden zur Erzeugung von Kernen

Fallstudien der mathematischen Modellbildung Teil 3: Quanten-Operationen. 0 i = i 0

Lineare Klassifikatoren

Transkript:

Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen Birgit Möller & Denis Williams AG Bioinformatik & Mustererkennung Institut für Informatik Martin-Luther-Universität Halle-Wittenberg

Motivation Rückblick: Klassifikation von Mustern Allgemeine Vorgehensweise: 1. Berechnung von geeigneten Merkmalen aus den Mustervektoren 2. Training eines Klassifikators, z.b. NN-Klassifikator 3. Zuordnung neuer Merkmalsvektoren zu einer Klasse offene Frage: Wie findet man geeignete Merkmale zur Klassifikation? für Bilder als Mustervektoren bewährt: Hauptkomponentenanalyse (PCA) Angewandte Bildverarbeitung, WS 2003-2004 1

Motivation Grundidee: Ermögliche Klassifikation durch Transformation der Mustervektoren in einen niedriger-dimensionalen Unterraum, in dem der Hauptteil der Datenvariation liegt. Annahme dabei: Variation in den Daten entspricht einem hohen Informationsgehalt! Angewandte Bildverarbeitung, WS 2003-2004 2

Algorithmus gegeben seien mittelwert-freie Mustervektoren x α, α = 1... N, x α R d : Algorithmus: 1 N N α=1 xα = 0 1. berechne die Autokorrelationsmatrix C xx der Datenmenge: C xx ij = 1 N N x α i x α j (1) α=1 C xx ist positiv-definit und symmetrisch. 2. berechne die Eigenwerte λ i und die Eigenvektoren ˆv i von C xx : C xx ˆv i = λ i ˆv i (Eigenwertgleichung) (2) aufgrund der Symmetrie gilt: ˆv i ˆv j := δ ij die Eigenvektoren bilden eine Orthonormal-Basis des R d Angewandte Bildverarbeitung, WS 2003-2004 3

Es gilt nun: jeder Datenvektor x α besitzt die Eigenvektorzerlegung x α = d t α i ˆv i t α j = x α ˆv j (3) i=1 die t α i sind zentriert und paarweise unkorreliert die Eigenwerte λ i liefern die Varianz in den t α i : 1 N N t α i t α j = λ i δ ij, (4) α=1 denn 1 N N t α i t α j = 1 N α=1 N α=1 ˆv i x α ( x α ) T ˆv j = ˆv i C xx ˆv j = λ i δ ij (5) Angewandte Bildverarbeitung, WS 2003-2004 4

Interpretation die Eigenvektorzerlegung beschreibt jeden Vektor x α durch einen neuen Parametervektor (Merkmalsvektor!) t α = (t α 1, t α 2,, t α d ) T die t α i gehen durch lineare Transformation aus den xα hervor: t α j = x α ˆv j die Eigenwerte λ i liefern die Varianzen in den einzelnen t α i Dimensionsreduktion durch Auswahl einer Teilmenge der Basisvektoren bei der Transformation Angewandte Bildverarbeitung, WS 2003-2004 5

Dimensionsreduktion die Eigenwerte seien absteigend sortiert: λ 1 λ 2 λ d Abbruch der Eigenvektorzerlegung nach dem k-ten Term liefert Approximation x α für x α : Approximationsfehler δ x α : x α = k t α j ˆv j j=1 δ x α = x α x α = d j=k+1 t α j ˆv j Angewandte Bildverarbeitung, WS 2003-2004 6

Statistische Analyse Frage: Wie groß ist der Approximationsfehler im Mittel? Berechnung des Erwartungswertes des quadratischen Fehlers: < (δ x α ) 2 > α = 1 N = 1 N = 1 N = 1 N (δ x α ) 2 α t α i t α j ˆv iˆv j α i>k j>k t α i t α j δ ij α i>k α j>k i>k(t α i ) 2 = i>k < (t α i ) 2 > α = i>k λ i der mittlere Approximationsfehler ist gleich der Summe unberücksichtigter Eigenwerte! Angewandte Bildverarbeitung, WS 2003-2004 7

Statistische Analyse Fazit: Mitnahme der k größten Eigenvektoren führt zu Minimierung des mittleren Approximationsfehlers unter allen Projektionen auf k-dimensionale Unterräume Dimensionsreduktion auch bekannt als Karhunen-Loeve-Entwicklung Offene Frage: Wie wählt man k geschickt?! anhand der Eigenwertverteilung von C xx Angewandte Bildverarbeitung, WS 2003-2004 8

Zwischenfazit Eigenwertanalyse gibt Aufschluß über intrinsische Datendimensionalität PCA macht keine Aussage über semantischen Gehalt der Daten Achtung bei starkem Rauschen in den Daten!!! Fazit: PCA fokussiert durch Dimensionsreduktion auf spezifische Charakteristika der zu klassifizierenden Daten der entstehende (niedrig-dimensionale) Datenraum beschreibt die Mustercharakteristik optimal bei gewählter Dimension k Angewandte Bildverarbeitung, WS 2003-2004 9

Eigenfaces Klassifikation von Gesichtern - Eigenfaces Grundidee: Repräsentation der gesicht-spezifischen Merkmale von Bildern in einem geeigneten Unterraum Klassifikation eines unbekannten Musters durch Auswertung seiner Projektion in den gewählten Unterraum Der Klassifikator unterscheidet zwei Modi: 1. Systeminitialisierung: Training des Klassifikators auf einer Trainingsmenge 2. Arbeitsphase: Klassifikation unbekannter Muster (mit optionalem Update) Angewandte Bildverarbeitung, WS 2003-2004 10

Phase I - Initialisierung gegeben eine Menge von M Trainingsmustern x α R N 2, α = 1 M (fasse N N-dimensionales Bild als N 2 -dimensionalen Vektor auf) berechne Facespace durch Auswahl von L Eigenvektoren der Korrelationsmatrix C xx als Basis des gesuchten Unterraums R L berechne Merkmalsvektoren ω α der Trainingsvektoren x α als Repräsentanten der einzelnen Klassen Ω i (NN-Klassifikator) Berechnung der Eigenvektoren: C xx = 1 M M x α ( x α ) T = 1 M A AT mit A = [ x 1 x M ] (6) α=1 Problem: x i R N 2, d.h. für Bilder der Größe 256 256 folgt N 2 = 65536 und A R N 2 N 2!!! Angewandte Bildverarbeitung, WS 2003-2004 11

Phase I - Initialisierung Trick 17 : Ist die Anzahl der Datenpunkte M sehr viel kleiner als ihre Dimension N 2, dann lassen sich nur maximal M 1 aussagekräftige Eigenvektoren finden! leite Eigenvektoren aus niedrig-dimensionalem Unterraum ab! die Eigenvektoren ˆv i von A T A sind gegeben durch A T Aˆv i = λ iˆv i ferner gilt: AA T Aˆv i = λ i Aˆv i die Aˆv i entsprechen den Eigenvektoren û i von C xx = AA T A T A hat die Dimension M M, mit (A T A) mn = x T m x n Angewandte Bildverarbeitung, WS 2003-2004 12

Phase I - Initialisierung Algorithmus - auf einen Blick: 1. berechne Matrix A T A 2. berechne die Eigenvektoren ˆv i von A T A 3. berechne die Eigenvektoren u i von AA T ( Eigenfaces ) aus u i = Aˆv i 4. projiziere die Trainingsmuster x α in den Unterraum ( Facespace ) und verwende deren Projektionen ω α als Repräsentanten für einen intuitiven Klassifikator Angewandte Bildverarbeitung, WS 2003-2004 13

Phase II - Klassifikation Gegeben ein unbekanntes Muster x. berechne die Eigenvektorzerlegung des Eingabemusters (Projektion in den Facespace ) t k = û k ( x x) mit x = 1 M M x α α=1 klassifiziere über Distanzen zu den Repräsentanten: ɛ i = t ω i 2 < θ 1 mit ω i Repräsentant der Klasse Ω i Problem: auch Nicht-Gesichter werden unter Umständen auf Merkmalsvektoren nahe den Repräsentanten abgebildet! Angewandte Bildverarbeitung, WS 2003-2004 14

Phase II - Klassifikation Rückweisungskriterium: ψ = x x 2 > θ 2 mit x = L t x i û i i=1 Damit resultieren drei Fälle, die zu unterscheiden sind: a) ψ > θ 2 : Rückweisung b) ψ < θ 2, ɛ > θ 1 : unbekanntes Gesicht c) ψ < θ 2, ɛ < θ 1 : bekanntes Gesicht Angewandte Bildverarbeitung, WS 2003-2004 15

Abschliessende Bemerkungen Trainingsmenge: je größer, desto besser, aber auch desto aufwändiger! (30 bis 40 Bilder) Eigenfaces sind nicht skalierungsinvariant Ausschnitte gleicher Größe verwenden oder explizit skalieren! (erst Lokalisation anhand alternativer Kriterien, dann Skalierung) beleuchtungsinvariant zu große Varianz in der Beleuchtung vermeiden! weiteres Problem: Hintergrund! je mehr Varianz dort, desto störender! (einfarbigen Hintergrund verwenden oder Randbereiche maskieren) Angewandte Bildverarbeitung, WS 2003-2004 16

Abschliessende Bemerkungen Suche nach Gesichtern in großen Bildern: projiziere jeweils Ausschnitte in den Facespace und klassifiziere gemäß ψ = x x 2 > θ 2 mit x = L t x i û i i=1 Aber Achtung: mitunter sehr aufwändig!!! Verbesserungen: Offline-Berechnung einzelner Terme Auflösungspyramide Groblokalisation, z.b. durch Farbe, dann Verifikation Kalmanfilter beim Tracking Angewandte Bildverarbeitung, WS 2003-2004 17