Recommender Systeme mit Collaborative Filtering

Ähnliche Dokumente
Item-based Collaborative Filtering

Seminar Datenbanksysteme

Item-based Collaborative Filtering

HS Virtuelle Präsenz

Informatik I Übung, Woche 48: Nachbesprechung Aufgabe 10.1: Implementation von wechselgeld.pas

Grundbegriffe der Informatik Musterlösung zu Aufgabenblatt 9

OPT Optimierende Clusteranalyse

Minimalpolynome und Implikanten

Projektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2008 Termin: 4. 7.

Serie 10: Inverse Matrix und Determinante

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten

Klassifikation und Ähnlichkeitssuche

Recommender-Systeme Teil 2. Kollaboratives Filtern & inhaltsbasierte Empfehlungen

LIBRA Learning Intelligent Book Recommending Agent. LIBRA System. Recommender-Systeme Teil 2. Kollaboratives Filtern & inhaltsbasierte Empfehlungen

Ranking by Reordering Tobias Joppen

Die (Un-)Sicherheit von DES

23. November Betweenness Centrality Closeness Centrality. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108

Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke

Lineare Algebra I (WS 12/13)

Theoretische Informatik 1

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Recommendation. Peter Haider

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,

Mining the Network Value of Customers

Numerisches Programmieren, Übungen

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

Ein meta-hybrides recommendation system für die webbasierte Filmplattform critic.de

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Einführung in die medizinische Bildverarbeitung WS 12/13

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

Geometrische Deutung linearer Abbildungen

PCA based feature fusion

1 Bestimmung der inversen Matrix

Gemischte Aufgaben zur Klausurvorbereitung

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Theoretische Informatik 1

3.3 Optimale binäre Suchbäume

Effiziente Algorithmen 2

Modulempfehlungen über Vorgänger- und Nachfolgemodule. Patrick Bittner tubit IT Service Center INFORMATIK 2015 Workshop: Hochschule 2025

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Übungen zu Multimedia-Datenbanken Aufgabenblatt 2 - Musterlösungen

Ahnlichkeitsbestimmung von Bildern

5. Bäume und Minimalgerüste

Selbstständiges Lernen

Grundbegriffe der Informatik

Algorithmen für die Speicherhierarchie

FH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB 5./7. November 2008 Prof. Dr. H.-R. Metz. Matrizen 1. a m1 a m2 a m3 a mn

Lineare Algebra 1. Roger Burkhardt

Die Determinante ist nur für beliebige quadratische Matrizen (n = m) definiert: a 11 a 12 a a 1n a 21 a 22. det. a nn.

1. Musterlösung. Problem 1: Average-case-Laufzeit vs. Worst-case-Laufzeit ** i=1

Lineare Algebra und Numerische Mathematik für D-BAUG

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Präfix-Summe. Das Schweizer Offiziersmesser der Parallelen Algorithmen. Parallele Rechenmodelle Präfix-Summe Brents Lemma Anwendungen

Lineare Algebra I (WS 12/13)

Am Dienstag, den 15. Dezember, ist Eulenfest. 1/60

A = A A

Informatik I Übung, Woche 47: Nachtrag zur dynamischen Programmierung

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Algorithmen auf Sequenzen

Technische Universität München TOPSIS. Technique for Order Preference by Similarity to Ideal Solution. - Eine Technik der Effizienzanalyse -

Klausur Informatik B April Teil I: Informatik 3

= 1. Falls ( a n. ) r i. i=1 ( b p i

MATRIZEN. Eine Matrix ist eine rechteckige Anordnung von Zahlen, als ein Schema betrachtet. a 11 a a 1n a 21. a a 2n A = a m1 a m2...

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Fragebogen zur Standortbestimmung von Zürcher Volksschulen: Ermittlung und Darstellung von Ergebnissen der einzelnen Schulen

T = {t 1,..., t n } sei die Menge der Terme. D = {d 1,..., d m } sei die Menge der Dokumente.

1 Zahlentheorie. 1.1 Kongruenzen

BibSpider Eine neue Recherchemethode für Schlagwort- und Titelsuche

Lineare Algebra. Beni Keller SJ 16/17

Collaborative Filtering with Privacy via Factor Analysis

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

3 Determinanten, Eigenwerte, Normalformen

Lineare Algebra: Determinanten und Eigenwerte

Implementierung eines Vektormodells

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt

Multivariate Verfahren

Anwendung von Vektormodell und boolschem Modell in Kombination

der Datenauswertung (Übung)

Kontextabhängige Integration von Diensten in intelligente Umgebungen

Gliederung. Algorithmen und Datenstrukturen II. Graphen: All-pairs shortest paths. Graphen: All-pairs shortest paths. Graphen: Kürzeste Pfade III

Wintersemester 2015/2016 Personalisierte Empfehlungssysteme

, 2015W Übungstermin: Do.,

In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle.

Musterlösung 11. D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung

9. Vorlesung Lineare Algebra, SVD und LSI

Tutorium: Analysis und Lineare Algebra

Algorithmische Bioinformatik 1

Erinnerung Blockchiffre

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Filter. Industrielle Bildverarbeitung, Vorlesung No M. O. Franz

Anhang: Ungarische Methode

Orthogonale Matrix. Definition 4.19

5 Lineare Gleichungssysteme und Determinanten

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/45

Vektor-Additions-Systeme und Invarianten

Die Mathematik hinter Google

Übungsblatt 7 - Voronoi Diagramme

Lernmodul 7 Algorithmus von Dijkstra

Transkript:

Fakultät für Informatik Technische Universität München Email: rene.romen@tum.de 6. Juni 2017

Recommender Systeme Definition Ziel eines Recommender Systems ist es Benutzern Items vorzuschlagen die diesem interessieren. Weitverbreitet im Internet Webseiten wie Amazon, Netflix und Spotify betreiben moderne Recommender Systeme Häufig in Kombination mit einer Suchmaschine im Einsatz

Arten von Recommender Systeme Content based Recommender Systeme User gefallen Items die ähnlich sind zu denen die ihm in der Vergangenheit gefallen haben Items müssen inhaltlich verglichen werden um Ähnlichkeitsgrad festzustellen Abhängig von den Items die Empfohlen werden Recommender Systeme mit Collaborative Fitering User denen ähnliche Items gefallen haben werden auch in Zukunft ähnliche Items mögen User lassen sich in Gruppen einteilen System kann User personalisierte Vorschläge machen, indem es Items die andere aus seiner Gruppe gut fanden, empfiehlt Unabhängig von den Items die Empfohlen werden

Collaborative Filtering - Ablauf Input: User-Item Matrix Matrixeintrag p ij enthält Bewertung von User i über Item j Algorithmus liefert Vorhersage für ein p ij Oder eine Liste mit den N interessantesten Item für den aktiven User Abbildung : Collabrative Filtering Ablauf

Collaborative Filtering - Meinungen von Usern Die User-Item Matrix enthält die Meinungen der User über die Items Meinungen müssen auf nummern abgebildet werden Direkte Meinungen Like auf 1 und Dislike auf 0 1 bis 5 Sterne Indirekte Meinungen Artikel gekauft auf 2, Artikel betrachtet auf 1, Artikel nicht betrachtet auf 0 Tabelle : Beispiel User-Item Matrix / i 1 i 2 i 3 i 4 i 5 u 1 1 5 5 2 u 2 4 3 4 1 u 3 2 4 5 5 u 4 2? 3 4 3

User-based Collaborative Filtering k-nearest-neighbor Verfahren Ablauf 1 Finden der k ähnlichsten Nutzer 2 Kombinieren ihrer Meinungen zu Empfehlungen Ähnlichkeitsfunktion bestimmt die Ähnlichkeit von zwei Usern User sind ähnlich, wenn sie einen große Ähnlichkeitswert haben Die Wahl dieser Funktion beeinflusst die Qualität der Empfehlungen Einige Ähnlichkeitsfunktionen Testen und die beste Wählen

Ähnlichkeitsfunktionen Euklidische Distanz Distanz zwischen den Zeilen des i-ten und j-ten Users als maß für Ähnlichkeit Nur Items für die beide abgestimmt haben werden berücksichtigt 0, wenn es keines gibt für das beide Abgestimmt haben sim (u i, u j ) = 1 1 + u i u j 2

Ähnlichkeitsfunktionen Pearson-Korrelation Maß dafür wie gut zwei Datensätze auf eine Gerade passen User sind ähnlich auch wenn einer konstant schlechtere Bewertungen gibt als ein anderer Cosinus Ähnlichkeit Cosinus des Winkels zwischen den Zeilen i-ten und j-ten Users als maß für Ähnlichkeit

User-based Collaborative Filtering Finden der k ähnlichsten User mit Euklidischer Distanz Berechnen der Vorhersage mit dem Gewichtetem arithmetischen Mittel Tabelle : Beispiel Vorhersage für Item i 2 mit Euklidischer Distanz User Ähnlichkeit zu u 4 Wertung Ähnlichkeit * Wertung u 1 0.25 5 1.25 u 2 0.14 3 0.42 u 3 0.1 2 0.2 Summe 0.49 1.87 Ergebnis 3.82

User-based Collaborative Filtering Tabelle : Beispiel Vorhersage für Item i 2 mit Pearson-Korrelation. User Ähnlichkeit zu u 4 Wertung Ähnlichkeit * Wertung u 1 0.96 5 4.8 u 2-0.5 3 - u 3 0.5 2 1 Summe 1.46 5.8 Ergebnis 3.97

User-based Collaborative Filtering - Probleme Probleme mit dünnbesetzter User-Item Matrix Kommt in der Praxis sehr häufig vor Hat schlechte Qualität der Vorschläge zur Folge Skalierbarkeitsproblem Laufzeit wächst Linear mit der Anzahl von User und Items Die Suche nach ähnlichen Nutzern ist extrem langwierig Es wird auf der gesamten User-Item Matrix gearbeitet, sie muss im Hauptspeicher gehalten werden

Item-based Collaborative Filtering Löst die Probleme von User-based Collaborative Filtering Es wird ein Modell aus der User-Item Matrix gewonnen Vorschläge werden nur noch mit dem Modell berechnet Modell Berechnung kann offline geschehen Gute Online Performance Das Modell muss regelmäßig neu berechnet werden, um aktuell zu bleiben

Item-based Collaborative Filtering Modell mit Item-Item Beziehungen Das Modell enthält für jedes Item eine Liste der k ähnlichsten Items Die gleichen Ähnlichkeitsfunktionen wie in User-based Collaborative Filtering werden verwendet, User-Item Matrix transponieren Tabelle : Beispiel Item-Item Modell mit Pearson-Korrelation / 1. 2. 3. 4. i 1 i 3 0.5 i 5 0.08 i 2 0.06 i 4 0.05 i 2 i 3 0.17 i 4 0.1 i 1 0.05 i 5 0.04 i 3 i 1 0.5 i 4 0.33 i 2 0.17 i 5 0.09 i 4 i 3 0.33 i 2 0.1 i 5 0.09 i 1 0.05 i 5 i 4 0.09 i 3 0.09 i 1 0.08 i 2 0.04

Item-based Collaborative Filtering Tabelle : Beispiel Vorhersage für Item i 2 Item Ähnlichkeit zu i 2 Wertung von u 4 Ähnlichkeit * Wertung i 1 0.05 2 0.1 i 3 0.17 3 0.51 i 4 0.1 4 0.4 i 5 0.04 3 0.12 Summe 0.36 1.13 Ergebnis 3.13