Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke

Ähnliche Dokumente
Hauptkomponentenanalyse. Volker Tresp

Hauptkomponentenanalyse. Volker Tresp

Statistik, Datenanalyse und Simulation

9. Vorlesung Lineare Algebra, SVD und LSI

1. Referenzpunkt Transformation

Projektdokumentation Gesichtserkennung per Eigengesichtsanalyse

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Latent Semantic Indexing: Einführung und Experiment

PCA based feature fusion

Multimedia-Metadaten und ihre Anwendung

Rückblick. Aufteilung in Dokumente anwendungsabhängig. Tokenisierung und Normalisierung sprachabhängig

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

Reduced-Rank Least Squares Modelle

Rückblick. Aufteilung in Dokumente anwendungsabhängig. Tokenisierung und Normalisierung sprachabhängig

Principal Component Analysis (PCA)

Seminar Datenbanksysteme

Support Vector Machines, Kernels

Mathematische Grundlagen III

Recommender Systeme mit Collaborative Filtering

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen

Suche nach korrespondierenden Pixeln

Selbstständiges Lernen

Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

Nichtmetrische multidimensionale Skalierung (NMDS) Dr. Heike Culmsee Vegetationsanalyse & Phytodiversität

Algorithmen auf Sequenzen Paarweiser Sequenzvergleich: Alignments

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2008 Termin: 4. 7.

6. Vorlesung. Rechnen mit Matrizen.

Bildverarbeitung Herbstsemester. Mustererkennung

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

1.5 Kongruenz und Ähnlichkeit

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen

Texttechnologien: Latent Semantic Indexing

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.

Probabilistic Ranking Principle besagt, dass Rangfolge gemäß dieser Wahrscheinlichkeiten optimal ist

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Multivariate Verfahren

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)

SEMINAR AUTOMATISCHE GESICHTSERKENNUNG

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

M U = {x U f 1 =... = f n k (x) = 0}, (1)

Multimedia-Datenbanken im SS 2010 Einführung in MMDB

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

D 1 D 2 D 3 D 4 D 5... D m S S S S n

Distributed Algorithms. Image and Video Processing

8. Mai Humboldt-Universität zu Berlin. LingPipe. Mark Kibanov und Maik Lange. Index. Allgemeine Infos. Features

Boolesche- und Vektorraum- Modelle

Seminar: Multi-Core Architectures and Programming. Viola-Jones Gesichtsdetektor

Kapitel IR:III (Fortsetzung)

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya

Semantisches Gedächtnis HAL-Modell Experimente Fazit Literatur HAL. Hyperspace Analogue to Language. Mandy Neumann. 30. April 2012

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht

Klausur zur Vorlesung Lineare Algebra I

Ähnlichkeits- und Distanzmaße

Multimedia-Datenbanken im SS 2010 Ähnlichkeitsmaße II

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

6. Texterkennung in Videos Videoanalyse

Dokumenten- und Topicmodelle. Institut für Informatik

Recovering High Dynamic Range Radiance Maps from Photographs

Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen

Singulärwertzerlegung

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Korrespondenzanalyse

Using Sets of Feature Vectors for Similarity Search on Voxelized CAD Data

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

1 Boolesches Retrieval (2)

3.6 Eigenwerte und Eigenvektoren

Unüberwachtes Lernen

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya

Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen

Algorithmen auf Sequenzen

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Konzepte II. Netzwerkanalyse für Politikwissenschaftler

Kapitel IR:III (Fortsetzung)

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Vorlesung Datenbanken II SS 2006

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/45

Eigenwerte und Eigenvektoren

Statistik, Datenanalyse und Simulation

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Klassifikation und Ähnlichkeitssuche

47 Singulärwertzerlegung

Personenerkennung. Harald Hauptseminarpräsentation. Harald Kirschenmann. Department Informatik. Department Informatik.

Look at us! V O R L E S U N G U N D P R A K T I K U M B I L D V E R A R B E I T U N G S S

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch

Einführung in die medizinische Bildverarbeitung WS 12/13

Singular Value Decomposition

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

Serie 8: Online-Test

Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances

Gesichtsdetektierung und Gesichtserkennung

Multivariate Verfahren

Klassen von Retrieval-Modellen. Boolesche und Vektorraum- Modelle. Weitere Modell-Dimensionen. Retrieval-Modelle. Boolesche Modelle (Mengen-basiert)

Transkript:

Anwendungen der Hauptkomponentenanalyse Volker Tresp vertreten durch Florian Steinke 1

Dimensionsreduktion für Supervised Learning 2

Beispiel: Kaufentscheidung 3

Verbesserte Abstandsmaße durch Hauptkomponentenanalyse Der euklidische Abstand eines Testvektors z zu einem Datenvektor x i ist dist Euklid = n (z j x j,i ) 2 j=1 Ein bedeutungsvolleres Abstandsmaß ergibt sich durch die Hauptkomponenten dist Euklid,P CA = r (w(z) j w j,i ) 2 j=1 wobei w j,i = u T j x i w(z) j = u T j z Man kann den Abstand auch in Bezug auf den rekonstruierten Vektor berechnen dist Euklid,rec = n (ẑ j ˆx j,i ) 2 j=1 wobei ˆx j,i = r j=1 u j,i w j,i ẑ j = r j=1 u j,i w(z) j 4

Malahanobis Distanz: dist Malahonbis = r j=1 ( w(z)j w j,i σ j ) 2 Wie man leicht zeigen kann dist Euklid,P CA = dist Euklid,rec dist Euklid dist Malahonbis Beweis: dist Euklid,rec = (U r w(z) U r w i ) T (U r w(z) U r w i ) = (w(z) w i ) T Ur T U r (w(z) w i ) = (w(z) w i ) T (w(z) w i ) = dist Euklid,P CA

Anomaliedetektion durch Hauptkomponentenanalyse Angenommen, ich habe einen normalen Datensatz mit der Hauptkomponentenanalyse analysiert Stammt z aus der gleichen Klasse von normalen Datenvektoren, sollte der Rekonstuktionsfehler DF F S(z, ẑ) = M (ẑ j z j ) 2 j=1 (DFFS = distance form feature space) klein sein. Ist jedoch DF F S(z, ẑ) gross, so ist z anomal, oder novel 5

Erkennung handgeschriebener Ziffern Dimensionsreduktion und Kompression 130 handgeschriebene Ziffern 3 (insgesamt: 658): beträchtliche Unterschiede in der Schreibweise 16 16 grauwertiges Bild: jedes Bild ist ein Punkt im 256-dimensionalen Raum x i ist ein 256-dimensionaler Vektor aus den Pixelwerten des i-ten Bildes 6

7

8

9

Eigengesichter (Eigenfaces) PCA zur Gesichtserkennung http://vismod.media.mit.edu/vismod/demos/facerec/basic.html 7562 Bilder von etwa 3000 Personen x i enthält die Pixelwerte des i-ten Bildes Eigengesichter sind basierend auf 128 Bildern von Gesichtern berechnet worden Zur Erkennung wurden die ersten 20 Eigenvektoren (=Eigengesichter) (r = 20) benutzt Fast jede Person hat mindestens 2 Bilder; viele Personen haben variierende Bilder mit unterschiedlichem Gesichtsausdruck, unterschiedlicher Haartracht, Barttracht,... 10

Ähnlichkeitssuche basierend auf den Hauptkomponenten In folgenden Bild ist das linke Bild oben das Testbild. Basierend auf dem euklidischen Abstand im Raum der Hauptkomponenten wurden die folgenden 15 Bilder als nächste Nachbarn klassifiziert. Interessanterweise stammen alle 15 Bilder von der korrekten Person, obwohl die Datenbank aus insgesamt 7562 Bildern von unterschiedlichen Personen bestand! Der Abstand wird berechnet nach dist Euklid,P CA = r (w(z) j w j,i ) 2 j=1 11

Eigenfaces (4) 200 Bilder wurden zufällig ausgewählt und dem nächsten Nachbarn im Hauptkomponentenraum zugeordnet. Die Eigenvektor basierte Erkennung war zu 95% richtig. 12

Modulare Eigengräume: Detektion, Kodierung and Erkennung Die Eigengesichtsmethode lässt sich leicht auch auf Gesichtsmerkmale anwenden, was zu Eigenaugen, Eigennasen und Eigenmünder führt. Untersuchungen der menschlichen Augenbewegungen bestätigen, dass sich der Mensch ebenfalls auf diese Merkmale in der Erkennung konzentriert. Die niedrigaufgelöste Darstellung des Gesamtgesichtes wird ergänzt durch genauere Einzelheiten der lokalen Gesichtsmerkmale. 13

Modulare Eigengräume: Detektion, Kodierung and Erkennung (2) Die modularen Methoden benötigen eine automatische Detektion der Merkmale (Augen, Nase, Mund) Man definiert ein rechteckiges Fenster, welches durch das zentrale Pixel im Rechteck indiziert wird. Man berechnet im Fenster den quadratischen Abstand zwischen rekonstruiertem Bild und den roh-pixelwerten im Fenster, basierend auf einer Hauptkomponentenanalyse die z.b. auf der Bildklasse linkes Augen berechnet wurde. DF F S(linkes Auge, Fenster) = (ẑ j z j ) 2 pixel j im Fenster DFFS(linkes Auge) (distance from feature space) bewertet also, wie anomal der Bildausschnitt im Rechteck ist, falls es sich im Bildausschnitt um ein (beliebiges) linkes Auge handeln würde (Anomaliedetektion) 14

DFFS(linkes Auge) wird für jedes mögliche Fenster berechnet; in den folgenden Bildern entspricht die Helligkeit dem Restfehler; ebenso für rechtes Auge, Nase, Mund.

Detektionsrate Das Nächste Bild zeigt die Performanz der linke-auge-detektion basierend auf DFFS mit einem und 10 Eigenvektoren. Gezeigt ist ebenfalls die Performanz für ein einfaches Template matching (Abstand des Fensters zum Mittelwertbild eines Auges = SSD). Korrekte Detektion: das globale Minimum ist unter einem Schwellwert α und ist innerhalb von 5 Pixeln von der richtigen Lokalisiserung Falscher Alarm: das globale Minimum ist unter einem Schwellwert α und ist außerhalb von 5 Pixeln von der richtigen Lokalisiserung In den Kurven wird der Schwellwert α variiert Mit einem entsprechenden Schwellwert erreicht DFFS(10) eine Detektionsrate von 94% und eine Falscher-Alarm-Rate von 6%. 15

Modulare Erkennung Es wird getestet, ob der nächste Nachbar in Bezug auf die Hauptkomponenten die gleiche Person wie im Testbild ist. Die Person im Testbild hat einen anderen Gesichtsausdruck wie die gleiche Person im Trainingssdatensatz Die Erkennung basierend auf modularen Merkmalen (Augen, Nase, Mund) zeigt grosse Robustheit gegenüber Variationen wie Brille, Schminke, Barttracht,... 16

Latent Semantic Analysis (LSA) Standard term-frequency (tf) Repräsentation klassifiziert Texte als unähnlich, wenn die genauen Worte nicht in beiden Texten vorkommen Ziel: Generalisierung unter Berücksichtigung der Bedeutung der Wörter X: tf-matrix (Wörter mal Dokumente) (mit idf oder ähnlicher Transformation) Latent Semantic Analysis (LSA): PCA auf tf-matrix angewandt Notation für SVD: X = W SP Rang: r = 50...1500; es gibt eine niedrig-dimensionale Repräsentation, die Texte beschreibt Performanz oft ähnlich zu menschlicher Performanz in vielen Aufgaben: Assoziation, semantische Ähnlichkeit Beispiel: Bewertung von Term-papers 17

Einfaches Beispiel 9 Texte: 5 über Mensch-Maschine Interaktion (c1 - c5), 4 ueber mathematische Graph Theorie (m1 - m4) 12 Schlüsselwörter (kursiv) und tf-matrix 18

Rekonstruktion Rekonstruktion ˆX mit r = 2 (Beachte: m4: survey, trees) (Beachte: human, user, minors)) 19

Korrelation im Originalraum und in der Rekonstruktion 20

Weitere Eigenschaften von LSA LSA und Information Retrieval (Suchmaschinen) (Latent Semantic Indexing (LSI)): finde ähnliche Dokumente LSA entdeckt Synonyme Beachte: LSA basierte Algorithmen sind sehr populär für collaborative filtering mit einer Matrix, bei der Zeilen Benutzern entsprechen, Spalten Objekten (Filmen) entsprechen und der Matrixeintrag der Bewertung des Objektes durch den Benutzer entspricht; fehlende Bewertungen werden durch den Wert Null dargestellt und über LSA berechnet 21

3D Morhable Head Model Volker Blanz & Thomas Vetter: A Morphable Model For The Synthesis Of 3D Faces, SIGGRAPH 99 www.mpi-inf.mpg.de/~blanz 3D Scans von Gesichtern werden in Korrespondenz gesetzt. Damit kann jedes Gesichts als Vektor x i R n repräsentiert werden (n = 80000). PCA hilft bei der Dimensionsreduktion. 22