Learning to Rank Sven Münnich

Ähnliche Dokumente
Einführung in Support Vector Machines (SVMs)

Support Vector Machines, Kernels

Lorenz Heikenfeld. Learning to Rank 1

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Pareto optimale lineare Klassifikation

6. Probabilistische Retrievalmodelle. Norbert Fuhr

Multi-label Lazy Associative Classification. Darko Popovic. Seminar aus maschinellem Lernen WS 2007/2008

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten

MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES

Support Vector Machines (SVM)

Zusammenhänge zwischen metrischen Merkmalen

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Naive Bayes für Regressionsprobleme

Algebraische Statistik von Ranking-Modellen

Lehrveranstaltungen im Wintersemester 2012/2013

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Correlational analysis

Die Datenmatrix für Überwachtes Lernen

Analytics Entscheidungsbäume

Evaluierung und Retrievalmaße. Seminar experimentelle Evaluierung In Information Retrieval WS05/06

Einführung in die Bioinformatik: Lernen mit Kernen

Data Mining - Wiederholung

Heavy Equipment Demand Prediction with Support Vector Machine Regression Towards a Strategic Equipment Management

Vorlesung Wissensentdeckung

Lernende Suchmaschinen

Item-based Collaborative Filtering

Einführung in das Maschinelle Lernen I

Methoden zur Cluster - Analyse

Klassifikation und Ähnlichkeitssuche

Visual Analytics: Personalisierung im E- Commerce

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen

One-class Support Vector Machines

Reduced-Rank Least Squares Modelle

IR Seminar SoSe 2012 Martin Leinberger

Praxisteil. Seminar experimentelle Evaluierung in IR WS05/06 Gruppe A

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Anwendung von Vektormodell und boolschem Modell in Kombination

9.5 Entscheidungsbäume

Search Engine Evaluation. Franziska Häger, Lutz Gericke

Chapter 6: Classification

Text Mining for Second Screen

Support Vector Machines (SVM)

Support Vector Machines und Kernel-Methoden

Information Retrieval, Vektorraummodell

Hauptseminar Machine Learning: Support Vector Machines, Kernels. Katja Kunze

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Zusammenhänge zwischen metrischen Merkmalen

Ranking by Reordering Tobias Joppen

AutoSPARQL. Let Users Query Your Knowledge Base

Semiüberwachte Paarweise Klassifikation

Multimedia-Datenbanken im SS 2010 Effiziente Algorithmen und Datenstrukturen II

dlib - A toolkit for making real world machine learning and data analysis applications in C++

Federated Search: Integration von FAST DataSearch und Lucene

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

EIN NEUER SMARTPHONE-BASIERTER ANSATZ ZUM LEHREN VON JAVA MIT EINEM LERNSPIEL. 14. Oktober 2016, Tobias Jordine

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

Einleitung. Komplexe Anfragen. Suche ist teuer. VA-File Verfeinerungen. A0-Algo. GeVAS. Schluß. Folie 2. Einleitung. Suche ist teuer.

Vorbesprechung Seminar Biomedical Informatics

Proseminar - Data Mining

Symbolisches Lernen in Go

Modellierung mit künstlicher Intelligenz

Opinion Mining Herausforderungen und Anwendung in der Politik

Statistical Learning

REAL-TIME DATA WAREHOUSING

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

INTELLIGENTE DATENANALYSE IN MATLAB

Neuere Ansätze zur Auswahl von Prädiktionsmodellen. Von Veronika Huber

Boole'sches Modell <is web>

Suchstrategien PG 402. Phillip Look Christian Hüppe

DIPLOMARBEIT. Martin-Luther-Universität Halle-Wittenberg. Detektion von Transkriptionsfaktorbindestellen mit Support-Vektor-Maschinen

Übungen zu Multimedia-Datenbanken Aufgabenblatt 2 - Musterlösungen

Emotion Recognition of Call Center Conversations Robert Bosch Engineering and Business Solutions Private Limited

Introduction to the diploma and master seminar in FSS Prof. Dr. Armin Heinzl. Sven Scheibmayr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Ranking Functions im Web: PageRank & HITS

Projektpraktikum MultimediaGrid

RapidMiner als Werkzeug für die textorientierten Geisteswissenschaften Katharina Morik

Vektormodelle. Universität zu Köln HS: Systeme der maschinellen Sprachverarbeitung Prof. Dr. J. Rolshoven Referentin: Alena Geduldig

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Space Usage Rules. Neele Halbur, Helge Spieker InformatiCup März 2015

Rückblick. Aufteilung in Dokumente anwendungsabhängig. Tokenisierung und Normalisierung sprachabhängig

Multimedia-Metadaten und ihre Anwendung

Internet-Suchmaschinen Evaluierung

Automatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87

Detecting Near Duplicates for Web Crawling

Vortragsthema. Thema: Klassifikation. Klassifikation. OS Data Mining SS10 Madeleine Weiand 1

Automatisches Lernen von Regeln zur quellseitigen Umordnung

Statistische Lerntheorie und Empirische Inferenz

Projektseminar Natural Language Processing (SS 2016)

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Informationswissenschaft zwischen virtueller Infrastruktur und materiellen Lebenswelten

Überblick. Classifying The Real World. Textkategorisierung. Textkategorisierung. Textkategorisierung (II)

Suche im Web und Ranking

Mathematische Grundlagen III

Transkript:

Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1

Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 2

Was bedeutet Learning to Rank? EINFÜHRUNG 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 3

Beispiel: Dokumentensuche Dokumente { } D = d 1, d 2,..., d n Query f, d ( ) Ranking d, 1 d, 2 d, n 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 4

Beispiel: Produktvorschläge Query Dokumente 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 5

Learning to Rank 1 d 1, 1 d 1, 2 d 1, n1 m d m, 1 d m, 2 d m, nm Learning System Dokumente { } D = d 1, d 2,..., d n Query m+1 f, d ( ) d m+1, 1 d m+1, 2 d m+1, nm+1 Ranking f ( m+1, d m+1, 1 ) f ( m+1, d m+1, 2 ) f ( m+1, d m+1, nm+1 ) 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 6

Learning to Rank Learning System: Verlustfunktion zur Evaluierung der Ergebnisse Ranking System: Permutationen von Feature Vektoren 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 7

Trainingsdaten {( x j, l )} j x j l j Feature Vektor Query-Dokument Relevanz Kann binär sein( relevant nicht relevant ) Bewertet von realen Personen (z.b. Clicktrough Data ) Große Datensätze benötigt: z.b.: 36k Queries, 883k Dokumente, 700 Features 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 8

Beispiel: Clickhrough Data Ranking Query A B User wählt C B > A 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 9

Bewertungsverfahren Binäre Relevanz Mean Reciprocal Rank N-äre Relevanz Discounted Cumulative Gain Normalized Discounted Cumulative Gain Kendalls Tau 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 10

Mean Reciprocal Rank (MRR) MRR = 1 Q Q i=1 1 rank i Mean Durchschnitt Reciprocal Kehrwert Rank Ranges des ersten relevanten Ergebnisses 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 11

Beispiel: MRR Query A Ranking Relevanz A 0 0 A 1 0 A 2 1 A 3 0 A 4 1 A 5 1 Query B Ranking Relevanz B 0 1 B 1 1 B 2 1 B 3 0 B 4 0 B 5 0 Query C Ranking Relevanz C 0 0 C 1 0 C 2 0 C 3 0 C 4 0 C 5 1 MRR = 1 3 1 = 1 " 1 3 rank i 3 3 +1+ 1 % $ ' = 1 # 6 & 2 i=1 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 12

Discounted Cumulative Gain (DCG) DCG p = rel 1 + p i=2 rel i log 2 i ( ) Jeder Treffer mit Relevanz ist Informationsgewinn Gain Gewicht der Relevanz von Ergebnissen mit niedrigem Rang wird reduziert Discounted 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 13

Beispiel: DCG (A) Platz Relevanz CG A 1 4 4 2 3 7 3 0 7 4 1 8 5 0 8 6 5 13 7 3 16 DCG A 4 7 7 7.5 7.5 9.43 10.5 DCG 7 = rel 1 + 7 i=2 rel i log 2 i ( ) = 4 + 3 log 2 ( 2) + + 3 log 2 ( 7) 10.5 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 14

Beispiel: DCG (B) Platz Relevanz CG B DCG B 1 5 5 5 2 3 8 8 3 1 9 8.63 4 0 9 8.63 5 1 10 9.06 6 2 12 9.83 7 4 16 11.25 DCG A 4 7 7 7.5 7.5 9.43 10.5 Welches DCG ist besser? 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 15

Normalized Discounted Cumulative Gain (NDCG) NDCG p = DCG p idcg p Normalisierung mit idealem DCG ideal : Objekte sind absteigend nach ihrer Relevanz sortiert Ermöglicht Vergleich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 16

Beispiel: NDCG Platz Relevanz CG A DCG A 1 4 4 4 2 3 7 7 3 0 7 7 4 1 8 7.5 5 0 8 7.5 6 5 13 9.43 7 3 16 10.5 NDCG 7,A = DCG 7,A idcg 7,A = 10.5 12.82 0.81 NDCG 7,B 0.89 Relevanz CG i DCG i 5 5 5 4 9 9 3 12 10.89 3 15 12.39 1 16 12.82 0 16 12.82 0 16 12.82 B ist besser! 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 17

Kendalls Tau τ = C D n n 1 ( ) / 2 Nach sortierte Paare mit und C D x j = i +1,, n ( ) ( x i, y i ), x j, y j : Anzahl von konkordanten Paaren x i < x j, y i < y j : Anzahl von diskordanten Paaren x i < x j, y i > y j i =1,, n 1 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 18

Beispiel: Kendalls Tau d X Y A 4 5 B 1 3 C 5 4 D 3 1 E 2 2 d X Y B 1 3 E 2 2 D 3 1 A 4 5 C 5 4 d Y-Paare B (3,2)(3,1)(3,5)(3,4) E (2,1)(2,5)(2,4) D (1,5)(1,4) A (5,4) C Paare konkordant (3,5)(3,4)(2,5)(2,4)(1,5)(1,4) diskordant (3,2)(3,1)(2,1)(5,4) τ = C D n( n 1) / 2 = 6 4 5 4 / 2 = 2 10 = 0.2 C = 6 D = 4 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 19

Support Vector Machine (SVM) I Klassifizierung von Objekten Trennung der Trainingsobjekte in Klassen Maximierung des Freien Bereiches zwischen den Klassen Stützvektoren Klassifikation mit SVM, Florian Markowetz 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 20

Support Vector Machine (SVM) II Hyperebene kann nicht krumm sein Kernel-Trick Klassifikation mit SVM, Florian Markowetz 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 21

Punkte, Paare, Listen METHODEN 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 22

Punkte, j ( f ( x j ), l ) j Punkt: einzelnes Objekt, z.b. Dokument Verlustfunktionen: (Ordinal-)Regression Klassifizierung, z.b. ( ) = max( 0, 1 t y) t 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 23

Paare m i, j, l i >l j ( ( ) f ( x )) j f x i Paar: Dokumentenpaar Klassifizierung auf Basis der Reihenfolge, Verlustfunktionen: Paarweise Klassifizierung ( x i, x j ) x i > x j 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 24

Paarweise Klassifizierung Ranking Query Paarweise Klassifizierung Query A A A B B B C C C 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 25

Listen, j { } ( { f ( x ) j }, l ) j Liste: Query-Dokumentengruppe Intuitivster Ansatz für Learning to Rank Verlustfunktionen: Listenweise 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 26

ANWENDUNGEN 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 27

Ranking SVM Allgemeines Problem: Die Rankingfunktion ergibt verschiedene, nicht vergleichbare Gruppen A Short Introduction to Learning to Rank, Hang Li 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 28

Ranking SVM Paarweise Klassifikation mit ( t) = max( 0, 1 t) Allgemein: m i, j, l i >l j ( ( ) f ( x )) j f x i # min 1 2 w 2 + C % $ w T R i, j m i, j, l i >l j R i, j ( f ( x ) i f ( x )) j 1 R i, j 0 & ( ' 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 29

Ranking SVM A Short Introduction to Learning to Rank, Hang Li 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 30

ListNet Listenweise Klassifikation: ( f ( x ), l ) Verlustfunktion auf Basis von Permutations- Wahrscheinlichkeiten P s ( π ) = n j=1 ( ) ( ) φ s π j n k= j ( ) φ s π k ( ) 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 31

Permutations-Wahrscheinlichkeit P s ( π ) = n j=1 ( ) ( ) φ s π j n k= j ( ) φ s π k ( ) Permutation Scores Positive, monoton wachsende Funktion Jede Permutation ist prinzipiell möglich Sehr aufwändig zu berechnen n! Permutationen π = π ( 1), π ( 2),, π n ( ) s = s 1, s 2,, s n ( ) φ ( x) 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 32

Beispiel: Permutations-Wahrscheinlichkeit Drei Objekte Scores Wahrscheinlichkeit für : P s ( π ') = { 1, 2, 3} ( ) s = s 1, s 2, s 3 π ' = 3, 1, 2 φ ( s 3 ) φ ( s 3 ) +φ ( s 1 ) +φ ( s 2 ) φ ( s 1 ) φ ( s 1 ) +φ ( s 2 ) φ ( s 2) φ ( s 2 ) 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 33

ListNet Top One Probability für ein Dokument : Die Wahrscheinlichkeit, dass auf Platz 1 ist P s d ( j) = P s ( π ) = π( 1)= j, π Ω n d φ s j n k=1 ( ) ( ) φ s k ListNet: Top One Probability P f x ( ) ( x ) j = ( ) ( ) exp f ( x ) j n k=1 exp f ( x ) k 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 34

ListNet Verlustfunktion z.b. mit Kreuzentropie: f ( x ), l n ( ) = P l x j j=1 ( ( x )) j ( )log P f x ( ) Vereinfachte Darstellung normal mit Optimierungsparametern des Modells 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 35

Vergleich Ranking SVM ListNet Methode Paarweise Listenweise Komplexität O(n 2 ) O(m n) Skalierbarkeit je nach Implementierung gut 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 36

ZUSAMMENFASSUNG & FAZIT 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 37

Zusammenfassung Verbesserung durch Minimierung des Fehlers(Verlustes) Drei Methoden Punktweise Paarweise Listenweise Viele verschiedene Modelle z.b.: RankingSVM, ListNet Benötigt große Menge an bewerteten Trainingsdaten Verwendung von Clickthrough Data möglich Effizienz hängt stark von Implementierung ab 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 38

FRAGEN? 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 39

VIELEN DANK! 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 40

Quellen T. Joachims, Evaluating Retrieval Performance Using Clickthrough Data, Proceedings of the SIGIR Workshop on Mathematical/Formal Methods in Information Retrieval, 2002. B. Bai, J. Weston, D. Grangier, R. Collobert, K. Sadamasa, Y. Qi, O. Chapelle, and K. Weinberger. Learning to rank with (a lot of) word features. Information Retrieval Journal, 13(3):291 314, 2010. O. Chapelle, Y. Chang, and T.-Y. Liu, editors. Proceedings of the Yahoo! Learning to Rank Challenge, volume 14 of JMLR Workshop and Conference Proceedings, 2011. Evaluation von Retrievalsystemen, http://psirotkin.net/wp-content/ uploads/2009/05/evaluation-von-retrievalsystemen-dcg.pdf F. Markowetz, Klassifikation mit Support Vector Machines, Berlin Center for Genome Based Bioinformatics, 2003. 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 41

Quellen Hang Li, Zhe Cao, Tao Qin, Tie-Yan Liu, Ming-Feng Tsai, Learning to Rank: From Pairwise Approach to Listwise Approach, Microsoft Research Asia, 2007. Hang Li, A Short Introduction to Learning to Rank, Microsoft Research Asia, 2011. Tie-Yan Liu, Learning to Rank for Information Retrieval, International WWW Conference 2009. 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 42