Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Ähnliche Dokumente
Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Multimedia-Metadaten und ihre Anwendung

1. Referenzpunkt Transformation

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation

Principal Component Analysis (PCA)

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Projektdokumentation Gesichtserkennung per Eigengesichtsanalyse

Personenerkennung. Harald Hauptseminarpräsentation. Harald Kirschenmann. Department Informatik. Department Informatik.

Lineare Klassifikatoren

PCA based feature fusion

SEMINAR AUTOMATISCHE GESICHTSERKENNUNG

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke

Vorlesung 11. Unüberwachtes Lernen II

Trigonalisierung. Definition. 1) Sei F : V V linear, dim V = n. Dann heißt F trigonalisierbar, wenn es eine Basis B von V gibt sodass a 11 a 12..

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Kapitel 11 Eigenwerte und Eigenvektoren

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Recognizing Cars. André Justus. 7.Juni Louka Dlagnekov, Serge Belongie. Visuelle Überwachung Universität Bielefeld

Anfertigen von wissenschaftlichen Arbeiten. Peter Altenbernd - Hochschule Darmstadt

Hauptkomponenten-basierte Klassifikationsverfahren (PCA)

Gliederung: 1) Einleitung 2) Oberflächenvergleich 3) Objekterkennung

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Look at us! V O R L E S U N G U N D P R A K T I K U M B I L D V E R A R B E I T U N G S S

Zusammenfassung. 2.7 Eigenwerte und Eigenvektoren 53. in 2.1: Lösung eines linearen Gleichungssystems

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

REIHE INFORMATIK TR Gesichtserkennung in Bildern und Videos mit Hilfe von Eigenfaces

Berechnung der Determinante

Beleuchtungsmodelle und Shading

Nichtlineare Klassifikatoren

Dynamische Systeme und Zeitreihenanalyse // Systeme von Differenzengleichungen 6 p.2/??

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

9. Vorlesung Lineare Algebra, SVD und LSI

4. Segmentierung von Objekten Video - Inhaltsanalyse

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

c i u i. (10.2) x = i

Lineare Algebra und analytische Geometrie II

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Die n-dimensionale Normalverteilung

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Kapitel 3 Lineare Algebra

Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse)

Chaos-based Image Encryption

BZQ II: Stochastikpraktikum

4.2 Die adjungierte Abbildung

Unüberwachtes Lernen

GPU-friendly multi-view stereo reconstruction using surfel representation and graph cuts

Automatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy

Vom Zeichen zur Schrift Mit Mustererkennung zur automatisierten Schreiberhanderkennung in mittelalterlichen und frühneuzeitlichen Handschriften

Multimedia-Datenbanken im SS 2010 Ähnlichkeitsmaße II

5.2 Diagonalisierbarkeit und Trigonalisierung

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

7.3 Unitäre Operatoren

Das Prinzip der Suchmaschine Google TM

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Multimedia-Metadaten und ihre Anwendung

Institut für Analysis und Scientific Computing E. Weinmüller WS 2015

Teil 7: Beleuchtung Beleuchtungsmodelle, Schattierungsmodelle

Musterlösungen für die Nachklausur in LinAlg vom

Kontrollfragen und Aufgaben zur 4. Konsultation

Eigenwerte und Diagonalisierung

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

6. Lineare DGL-Systeme erster Ordnung

Bericht zur Mathematischen Zulassungsprüfung im Mai 2013

Ausgewählte Lösungen zu den Übungsblättern 9-10

β 1 x :=., und b :=. K n β m

Stg.: AIW BU BVT ET EUT IIW LUM MB MEC SB VT Sonstige

Mathematik II Frühjahrssemester 2013

0, v 6 = , v 4 = 1

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Institut für Analysis und Scientific Computing E. Weinmüller WS 2017

Lineare Algebra I. - 9.Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß. Korrektur: 2. Klausurtermin:

Landau-Theorie. Seminar zur Theorie der Teilchen und Felder. Daniel Schröer

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Multiplizitätskorrektur bei Variablenselektion

Ferienkurs Quantenmechanik 2009

Funktionentheorie. Prof. Dr. M. Rost. Übungen Blatt 6 (WS 2016/17) 1. Abgabetermin: Freitag, 9. Dezember.

Projektive Räume und Unterräume

Mit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Institut für Analysis und Scientific Computing E. Weinmüller WS 2015

Lineare Differentialgleichungen

9 Metrische und normierte Räume

Gesichtserkennung. Seminar Biometrische Identifikationsverfahren SoSe2004. Yasushi Tomii Steffen Scheer

Transkript:

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection Peter N. Belhumeur, João P. Hespanha, David J. Kriegman IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 7, July 1997 Marco Kortkamp Visuelle Überwachung - Gesichtserkennung 1 Vorwort Das zweite Kapitel behandelt eine kurze Einleitung zum Thema Gesichtserkennung. In der Einleitung wird beschrieben was man unter der Gesichtserkennung versteht und wo sich Schwierigkeiten ergeben. Im dritten Kapitel folgt der Paper Review. Der Review beginnt mit dem Kernbeitrag des Papers in einem Satz. Danach wird die Relevanz des Papers in Bezug auf das Seminar bzw. den praktischen Einsatz dargestellt. Im Anschluss daran folgen die kurze Zusammenfassung des Inhalts sowie die Diskussion des Papers. 2 Einleitung zur Gesichtserkennung Das Ziel der Gesichtserkennung ist die automatische Zuordnung eines Gesichtsbildes zu einer Person bzw. eine Rückweisung. Hierbei ist die zugewiesene Person dem Gesichtserkennungsverfahren bekannt, d.h. durch eine Datenbank mit Gesichtsbildern und zugehörigen Personen. Grob gesagt geht es also um die Frage, wer auf einem Bild zu sehen ist. Bevor das Gesicht einer Person jedoch erkannt werden kann, ist es in der Regel notwendig, dass Gesicht im Bild zunächst zu finden. Dieser Schritt wird als Gesichtsdetektion bezeichnet. Bei den meisten Verfahren die sich mit der reinen Gesichtserkennung beschäftigen wird angenommen, dass das Gesicht im Bild bereits detektiert wurde. Man kann drei grundlegende Arten von Gesichtserkennungsszenarien unterscheiden: Identification ( Wer bin ich? ), Verification ( Bin ich der, der ich vorgebe zu sein? ) und Watch-List ( Suchst du nach mir? ). Dabei können bei der Verification und Watch-List auch Bilder von Personen auftreten, die nicht in der Datenbank sind. Bei der Identification ist dies nicht der Fall. Manchmal wird jedoch nicht explizit zwischen den drei Arten unterschieden, da viele grundlegende Probleme und Techniken gleich sind. Für eine genauere Beschreibung der verschiedenen Gesichtserkennungsszenarien siehe [1]. 1

Viele praktische Aufgaben der Gesichtserkennung werden durch die drei grundlegenden Arten von Gesichtserkennungsszenarien abgedeckt. Einige Beispiele sind visuelle Überwachung, Zugangskontrolle, Gesichtsrekonstruktion, Design von Mensch- Maschine-Schnittstellen und Biometrie. Vergleiche [1]. Die Schwierigkeiten der Gesichtserkennung ergeben sich durch die Variationen verschiedener Parameter. Einige dieser Parameter sind Kopfpose, Beleuchtung (Intensität, Lage und Anzahl der Lichtquellen), Alterung, Gesichtsausdrücke, Größe des Bildes, Verkleidungen (Brillen, Hüte etc.), Verdeckungen und schlechte Bildqualität (Unschärfe etc.). Vergleiche [1] und [2]. Neben den Schwierigkeiten bei der Gesichtserkennung ist auch die Evaluation von Verfahren schwierig. Für die Evaluationen in den Publikationenen treffen die Wissenschaftler ihre eigenen Entscheidungen bzgl. der verwendeten Datenbank, des verwendeten Evaluierungsverfahrens (leave-one-out, cross-validation etc.) und der verwendeten Bildgröße. Dadurch wird ein Vergleich schwierig. Darüber hinaus ist der direkte Vergleich von Methoden auf der gleichen Datenbank schwierig, da den Methoden unterschiedliche Annahmen zugrunde liegen können. Mehr Details zur Evaluation von Gesichtserkennungsverfahren findet man in [1] und [3]. Das man bei Anwendungen wie der visuellen Überwachung meist Videodaten vorliegen hat, bringt für die Gesichtserkennung einige Vor- und Nachteile. Auf Videodaten werden oft Standbildverfahren auf einzelne Bilder einer Bildsequenz angewendet. Ein Vorteil bei Bildsequenzen kann sein, dass man günstige Bilder für die Gesichtserkennung aus der Sequenz auswählen kann. Ein Nachteil bei Bildsequenzen ist z.b. die schlechte Bildqualität. Einen kurzen Überblick bietet [2]. 3 Paper Review: Eigenfaces vs. Fisherfaces In dem Paper [4] schlagen die Autoren einen (damals) neuen Ansatz zur Gesichtserkennung vor, bei dem durch die Verwendung der Fisher Diskriminanzanalyse eine Unempfindlichkeit gegen relativ große Variationen der Beleuchtung und von Gesichtsausdrücken erzielt werden kann. 3.1 Relanz in Bezug auf Seminar bzw. praktischen Einsatz Wie bereits in Kapitel 2 erwähnt, kann man bei der visuellen Überwachung meist von Video-Daten ausgehen. Die im Paper vorgestellten Verfahren - insbesondere Fisherfaces - sind jedoch nicht explizit für Bildsequenzen gedacht. Zu der Zeit, als das Paper entstanden ist, war die Gesichtserkennung in Videos auch erst im aufkommen (vgl. [3]). Allerdings kann man Fisherfaces sowie die anderen Verfahren des Papers auf einzelne Bilder einer Bildsequenz anwenden. In den praktischen Aufgaben der visuellen Überwachung (z.b. Überwachung öffentlicher Plätze) können wir von unkontrollierten Umgebungen und für die Gesichtserkennung von einer Vielzahl der in Kapitel 2 genannten Variationen ausgehen. Es wird hier umso wichtiger, Methoden zu entwickeln, die gegenüber diesen Variationen robust sind. 2

Das Fisherface Verfahren ist unter gewissen Annahmen relativ unempfindlich gegenüber starken Variationen der Beleuchtung und von Gesichtsausdrücken. Dies ist der Versuch, mit einem Teil der Variabilität umzugehen. Die Mehtode ist jedoch nur unter gewissen Annahmen und in halbwegs kontrollierten Umgebungen einsetzbar. Für die Gesichtserkennung in realistischen Umgebungen ist das im Paper vorgestellte Verfahren jedoch zu schwach, da es insgesamt mit zu wenig Variationen klar kommt. Einen kleinen Überblick über einfache und schwere Gesichtserkennungsszenarien findet man in [2]. 3.2 Zusammenfassung Jeder Pixel eines M N Bildes wird als eine Koordinate in einem M N dimensionalen Vektorraum (Bildraum) betrachtet. D.h. ein Bild ist ein langer Vektor, in dem die einzelnen Intensitätswerte der Bildzeilen untereinander geschrieben sind. Darüber hinaus werden folgende Annahmen getroffen: Gesichter sind bereits detektiert (ggfs. normalisiert); d.h. es werden reine Gesichtsbilder verwendet die verwendeten Bilder sind Grauwertbilder der gleichen Größe Kopfose variiert nicht im Grunde: keine anderen Variationen bis auf Beleuchtung und Gesichtsausdrücke Im Paper werden die folgenden vier Verfahren miteinander verglichen. Zur Klassifikation eines Gesichts verwenden alle Verfahren einen Nächster-Nachbar-Klassifikator (NNK). Dabei wird ein Merkmalsvektor der Klasse zugeordnet, die das nächstgelegene Stichprobenelement besitzt. Correlation: Bei diesem Ansatz werden die Bilder direkt als hochdim. Vektoren zur Klassifikation verwendet. Durch eine vorherige Normierung aller Bilder entsteht eine gewisse Unabhängigkeit von der Intensität der Lichtquelle. Einige Nachteile dieses Ansatzes sind der Rechenaufwand sowie der benötigte Speicherplatz. Eigenfaces: Bei diesem Verfahren wird zur Dimensionsreduktion eine Hauptkomponentenanalyse (P rincipal C omponents Ānalysis) verwendet. Die Hauptachsentransformation lässt sich durch eine Transformationsmatrix angeben, die aus den Eigenvektoren der Kovarianzmatrix gebildet wird. Die Kovarianzmatrix ist definiert als S T = N (x k µ)(x k µ) T k=1 wobei {x 1,..., x N } die Trainingsbilder und µ das Durchschnittsgesicht (Bsp. siehe Abbildung 1) ist. Die Eigenvektoren von S T werden als Eigenfaces bezeichnet (siehe Abbildung 1). Sie haben die gleiche Dimension wie die Bilder. Man verwendet die Eigenvektoren {w 1,..., w m } der Matrix S T, die die m größten Eigenwerte haben. Für ein Bild x ist die Transformation in den niedrig dimensionalen Merkmalsraum gegeben durch y = W x mit W = [w 1,, w m ]. Die PCA maximiert die Varianz 3

Abbildung 1: Durchschnittsgesicht (oben) [1]; die ersten 7 Eigenfaces (unten) [1] aller projezierten Trainingsbilder, d.h. sowohl Interklassenvarianz als auch Intraklassenvarianz werden maximiert. Linear Subspaces: Dieser Ansatz verwendet die folgende Beobachtung: Alle Bilder einer Lambertschen Oberfläche 1 liegen in einem 3D linearen Unterraum des hochdim. Bildraums, wenn sie unter einem festen Betrachtungswinkel und variierender Beleuchtung aufgenommen werden. Man verwendet 3 oder mehr Bilder die unter verschiedener Beleuchtung aufgenommen wurden, um eine Basis des 3D Unterraums zu bilden. Ein Gesicht wird der Person zugeordnet, die den nächstliegensten Unterraum hat. Da Gesichter keine Lambertsche Oberfläche sind, weichen die Bilder von dem 3D Unterraum ab. Fisherfaces: Die Verwendung der Fisher Diskriminanzanalyse (F isher s L inear D iscriminant) zur Dimensionsreduktion, hat gegenüber der PCA den Vorteil, dass die Intraklassenvarianz minimiert und die Interklassenvarianz maximiert wird. Das Ergebnis der FLD liefert vom Unterscheidungsstandpunkt aus gesehen bessere Ergebnisse, da die Klassifikation vereinfacht wird (siehe Abbildung 3). Die Interklassen-Kovarianzmatrix ist definiert als S B = C N i (µ i µ)(µ i µ) T i=1 und die Intraklassen-Kovarianzmatrix als S W = C i=1 x k X i (x k µ i )(x k µ i ) T mit µ i Durchschnittsgesicht der Klasse X i und N i Anzahl der Bilder in Klasse X i. Die Fisherfaces sind die generalisierten Eigenvektoren von S B und S W. Sie haben die gleiche Dimension wie die Bilder (siehe Abbildung 2). Man verwendet nur die ersten m Eigenvektoren, die die m größten Eigenwerte haben. Für ein Bild x ist die Transformation in einen niedriger dimensionalen Merkmalsraum gegeben durch y = W x wobei W = [w 1,, w m ] die Matrix der m Eigenvektoren ist. Dadurch wird das Verhältnis von S B und S W maximiert. Bei der Gesichtserkennung kann das Problem auftreten, dass S W singulär ist. Dieses Problem kann man z.b. vermeiden, indem man die Bilder mit einer PCA in einen 1 Eine Lambertsche Oberfläche ist eine Oberfläche mit absolut matten Reflexionseigenschaften, d.h. sie die das Lambertsche Kosinus-Gesetz befolgt. Die Helligkeit ist somit konstant und unabhängig vom Betrachtungswinkel. 4

Abbildung 2: die ersten 7 Fisherfaces [1] niedrig dimensionalen Vektorraum projeziert und dann die FLD anwendet. Die beschriebenen Verfahren wurden auf zwei Datenbanken getestet. Die eine Datenbank enthält 330 Bilder von 5 Personen und die andere Datenbank enthält 160 Bilder von 16 Personen. Die Fisherface Methode scheint am besten mit Variationen in der Beleuchtung klarzukommen, wobei die Linear Subspace Methode knapp dahinter liegt. Die Fisherface Methode scheint besser als die anderen Methoden zu sein, wenn sowohl Beleuchtung als auch Gesichtsausdrücke variieren. 3.3 Diskussion Meiner Meinung nach wird in dem Paper gut erklärt, warum der Einsatz der FLD zur Gesichtserkennung Sinn macht und warum man mit der FLD bessere Ergebnisse erzielt als mit der PCA. Bei der Evaluierung der Verfahren würde ich bemängeln, dass die verwendeten Datenbanken einen zu geringen Umfang haben (insgesamt weniger als 500 Bilder). Weiterhin fehlt mir die Evaluation unter extremen Bedingungen. Im Hinblick auf den praktischen Einsatz müsste meiner Meinung nach die Erweiterbarkeit bzw. die Möglichkeit des Umgangs mit anderen Variationen (z.b. Kopfpose) diskutiert werden. Als Alternative zu den traditionellen Verfahren mit linearen Transformationen (wie Eigen- Abbildung 3: PCA vs. FLD [4] faces und Fisherfaces) werden heute ehr nicht lineare Transformationen (wie Kernel PCA) verwendet. Einen guten und halbwegs aktuellen Überblick zur Gesichtserkennung findet man in [1] und [3]. Das Paper ist heute noch immer gut zu lesen und bietet einen traditionelles Verfahren zur Gesichtserkennung. In kontrollierten Umgebungen und unter gewissen Annahmen lassen sich relativ gute Ergebnisse erzielen. Bewegt man sich jedoch weiter in Richtung Praxis und unkontrollierter Umgebungen, sind Fisherfaces zunehmend nicht mehr einsetzbar. 5

Literatur [1] Xiaoguang Lu Image Analysis for Face Recognition; personal notes; 2003 [2] Luis Torres Is There Any Hope for Face Recognition?; Proc. of the 5th International Workshop on Image Analysis for Multimedia Interactive Services; 2004 [3] W. Zhao, R. Chellappa, A. Rosenfeld, P.J. Phillips Face Recognition: A Literature Survey; ACM Computing Surveys; 2003 [4] Peter N. Belhumeur, Joao P. Hespanha, David J. Kriegman Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection; IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 7; 1997 6