PCA based feature fusion

Ähnliche Dokumente
Statistik, Datenanalyse und Simulation

Principal Component Analysis (PCA)

Multimedia-Metadaten und ihre Anwendung

Algorithmus zum Graphen-Matching. und. Anwendung zur inhaltsbasierten Bildersuche

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht

Mathematische Grundlagen III

Histogramm-anschaulich. Histogramme und Bilder. Histogramm-mathematisch. Farbhistogramm. Grauwerthistogramm. Inhaltsbasierte Bildsuche Histogramme

(Bamberg)

Verteiltes Information Retrieval

Projektdokumentation Gesichtserkennung per Eigengesichtsanalyse

1. Referenzpunkt Transformation

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Recommender Systeme mit Collaborative Filtering

Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke

Bachelorverteidigung Marco Franke

Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen

6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

Multivariate Verfahren

6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Lineare Algebra, Prüfung mit Lösungen

Algorithmen auf Sequenzen Paarweiser Sequenzvergleich: Alignments

Eine Affinität α eines euklidischen Raumes heißt eine Bewegung, wenn sie Abstände (und damit auch Winkel) erhält, wenn also für alle Punkte X, Y gilt:

Übungen zur Linearen Algebra 1 Probeklausur Musterlösung: Aufgabe A

Lineare Algebra II 8. Übungsblatt

Zusammenfassung. 2.7 Eigenwerte und Eigenvektoren 53. in 2.1: Lösung eines linearen Gleichungssystems

Statistik, Datenanalyse und Simulation

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Implementierung eines Vektormodells

Fachhochschule München Fachbereich 03 FA WS 2006/07. Diplomvorprüfung in Mathematik I (Lineare Algebra) Fahrzeugtechnik

Farbmomente. Christoph Sommer Seminar Inhaltsbasierte Bildsuche

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Aufgabe 2 (5 Punkte) y = 1 x. y + 3e 3x+2 x. von f. (ii) Für welches u in R 2 gilt f(u) = [3, 3, 4] T? x 2 + a x 3 x 1 4x 2 + a x 3 2x 4

Prüfung Lineare Algebra 2

OPT Optimierende Clusteranalyse

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

Evaluierung und Retrievalmaße. Seminar experimentelle Evaluierung In Information Retrieval WS05/06

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

5 Zur Geometrie euklidischer Bewegungen. Eine Bewegung eines euklidischen Raumes wird bezüglich eines kartesischen Koordinatensystems

Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"

Lineare Algebra I (WS 13/14)

Ausgewählte Lösungen zu den Übungsblättern 9-10

MC-Serie 11: Eigenwerte

Kontrollfragen und Aufgaben zur 3. Konsultation

Kapitel V. Affine Geometrie

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

9. Vorlesung Lineare Algebra, SVD und LSI

SEMINAR AUTOMATISCHE GESICHTSERKENNUNG

Mathematik I. Vorlesung 16. Eigentheorie

HAW Hamburg Anwendung 1 - Vortrag Andrej Rull

Lehr- und Übungsbuch Mathematik für Informatiker

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

Klausur zu Lineare Algebra I für Informatiker, SS 07

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4.

Clustern: Voraussetzungen

Lineare Algebra, Prüfung mit Lösungen

achsenparallele Stauchung und Streckung durch Gewichte :

Feature Selection / Preprocessing

Verfahren zur Lokalisierung von Schallquellen im Raum

Musterlösungen zur Linearen Algebra II Weihnachtszettel

6.3 Hauptachsentransformation

Lehr- und Übungsbuch MATHEMATIK. Lineare Algebra und Anwendungen. Mit 104 Bildern, 174 Beispielen und 222 Aufgaben mit Lösungen

Bayesianische Netzwerke - Lernen und Inferenz

Lineare Algebra und Numerische Mathematik für D-BAUG

Anwendung v. symmetrischen Matrizen: Hauptachsentransformation

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

4.2 Die adjungierte Abbildung

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

Institut für Analysis und Scientific Computing E. Weinmüller WS 2017

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Transkript:

PCA based feature fusion Seminar Inhaltsbasierte Bildsuche WS 04/05

Übersicht Motivation: PCA an einem Beispiel PCA in der Bildsuche Tests Zusammenfassung / Ausblick Diskussion / Demo 2

Motivation: PCA PCA = Principal Component Analysis 3

Motivation: Face Recognition Eigenvektoren (Eigenfaces) zu 7 max. Eigenwerten PCA Turk, M., and Pentland, A., Eigenfaces for Face Recognition, Journal of Cognitive Neuroscience, 3(1),pp.71-86, 1991 21.01.2005 Seminar Inhaltsbasierte Bildsuche 4

Motivation: Face Recognition Projektion auf Facespace (EV der 7 max. EW) Orginal 21.01.2005 Projektion Seminar Inhaltsbasierte Bildsuche 5

PCA in der Bildsuche Faces Features Facespace => Query Space Klassifizierung => 1 Klasse relevanter Bilder Gesucht: Ähnlichkeit zu Query-Bildern Fusion ist eine Art von Relevance Feedback Relevante Features sollen durch PCA automatisch bestimmt werden 6

PCA in der Bildsuche Sei Q = {q 1,..., q M } Menge von Query-Bildern (User) dim(q i ) = N, M << N OBdA: Mittelpunkt der q i im Nullpunkt Sei Φ die Matrix der Eigenvektoren zur Kovarianzmatrix q dim(φ) = N M (EV mit EW = 0 werden nicht benutzt) 7

Projektion auf Nullraum QS : Nullraum der Abbildung Φ T y = Φ T x Projektion von x auf QS e x e x r = Φ y Rekonstruktion e = x - x r Reconstruction Error e entspricht Projektion auf Nullraum QS x r 8

Warum Nullraum? Gesucht: Ähnlichkeit zwischen den Query-Bildern Genauer: Feature, das diese Ähnlichkeit bewirkt Korrekt: Unterraum, der die Ähnlichkeit beschreibt Projektion auf Nullraum entspricht Nutzung der Features, die der User (unbewusst) als Ursache der Ähnlichkeit empfindet 9

Kombination der Features Vor der Fusion: verschiedene Features zu einem langen Vektor kombinieren (seriell oder parallel) Hier: Features seriell aneinandergefügt 4 Methoden wurden untersucht: 10

Algorithmus 1. Features zu Super-Vektor kombinieren 2. User bestimmt ähnliche Bilder Q 3. Translation um Mittelwert der q i 4. Berechnung des QS Abb. Φ 5. Projektion aller Feature auf QS 6. Berechnung der DFQS für jedes Bild 7. Sortierung nach DFQS 11

12

Tests Tuning: Dimensionalität des Featurevektors Kombination der Features Anzahl der Anfragebilder Vergleich mit anderen Methoden: Fusion vs. Single Feature (Fusion vs. Relevance Feedback) 13

Tests: Dimensionalität 3 zufällige Sequenzen von 7 Features f 1,...,f 7 dim(f i ) = 512 i=1...7 Länge der Features F: 512, 1024, 1536,2048,2560,3072,3584 Berechnung des average PR- Graphen für alle Längen und alle Sequenzen Mittelung über Sequenzen Auswertung für verschiede Größen der Anfrage Q n Erkenntnisse: 1. PCA optimal dim(f) 3000 2. GT reldat_neu.txt ungeeignet für Q n > 1 14

Tests: Feature Kombination Seminar Features ( dim 1000) sehr unterschiedliche Dimensionen und Wertebereiche 4 verschiedene Methoden cleared: Dimensionen mit Standardabweichung = 0 gelöscht durchschnittliche Fläche des PR- Graphen (17 Bilder) Erkenntnisse: 1. einfaches serielles Zusammensetzen genügt, Normierung übersichtlicher 2. Löschen von informationslosen Dimensionen bringt keine bessere Qualität, aber schlechte Skalierbarkeit 15

Tests: Query Size Anfrage: Alle 17 Bilder in reldat_neu.txt Pro Bild 20 zufällige Bilder aus gleicher Kategorie Berechnung der durchschnittlichen PR-Graph Fläche in Abhängigkeit der Anfragegröße Auswertung für 3 verschiedene Feature DBs Probleme: Bilder innerhalb einer Kategorie nicht unbedingt ähnlich Nur reldat_100cat.txt als Ground Truths sinnvoll PR-Graph wird durch größere Anfragen verbessert obwohl gefundene Bilder nicht unbedingt ähnlich sind 16

Problem mit kleinen Klassen (1) 17

Problem mit kleinen Klassen (2) 18

Tests: Query Size (1) 19

Tests: Query Size (2) 20

Tests: Query Size (3) Ergebnis: Größere Anfragen führen zu besseren Suchergebnissen ab ca. 10 Bildern scheint Zuwachs nur noch durch die Größe (nicht durch Qualität) bestimmt Man muss sich Gedanken über die Ground Truths machen Für quantitative Aussagen benötigt man von Anfragegröße unabhängige Evaluationsmethode 21

Tests: Fusion vs. Single Feature Vergleich zwischen Fusion und kombinierten Featurevektor (Distanz im Feature-Raum) 2 Bilder (300.jpg,701.jpg) aus großen Klassen Variieren der Anfragegröße von 1 bis 15 bei der Fusion Suche mit euklidischen Abstand für die einzelnen Bilder der Anfrage Auswertung für 2 Feature DBs 22

Tests: Fusion vs. Single Feature (1) 23

Tests: Fusion vs. Single Feature (2) 24

Tests: Fusion vs. Single Feature (3) Ergebnis: Fusion bringt Verbesserung gegenüber Distanzmessung im Feature-Raum Die ersten 2-4 zusätzlichen Anfragebilder scheinen größte Qualitätssteigerung zu bringen 25

Zusammenfassung Fusion besser als Distanzmessung im Feature-Raum Vorraussetzung: Gute Features Geeignete Kombinationsmethoden: Längennormierung Einfach hintereinander hängen Dimension des Featurevektors hat Einfluss auf Suchergebnis 26

Ausblick Quantitative Aussagen: geeigneter Evaluationsmethode größere Bild-DB (mehr relevante Bilder/Testbild) Bringen unterschiedlichere Typen von Features bessere Ergebnisse? Optimum für Featurevektor /Anfragegröße? Bei größeren Anfragen weniger EV benutzen? Parallele Kombination nutzbar? Dadurch Verbesserung der Laufzeit? 27

Diskussion / Demo 28