Information Retrieval Übung

Ähnliche Dokumente
Evaluierung und Retrievalmaße. Seminar experimentelle Evaluierung In Information Retrieval WS05/06

Evaluation von IR-Systemen

6. Probabilistische Retrievalmodelle. Norbert Fuhr

Information-Retrieval: Evaluation

5. Probabilistische Retrievalmodelle

Übungen zu Datenbanken

Internet-Suchmaschinen Probabilistische Retrievalmodelle

Evaluierung von Suchmaschinen Qualitätsvergleich von Google- und Bing- Suchergebnissen unter besonderer Berücksichtigung von

Suchmaschinen. Anwendung RN Semester 7. Christian Koczur

Übungen zu Datenbanken

Musterlösung Übungsblatt 14

Praktikum Information Retrieval Wochen 12: Suchmaschine

Lastenheft Webinformationssystem V1.0

2 Evaluierung von Retrievalsystemen

SPRACHTECHNOLOGIE IN SUCHMASCHINEN IR-GRUNDLAGEN

Web Information Retrieval. Zwischendiskussion. Überblick. Meta-Suchmaschinen und Fusion (auch Rank Aggregation) Fusion

Vom Suchen und Finden - Google und andere Ansätze

Vorlesung Automaten und Formale Sprachen alias Theoretische Informatik Sommersemester 2015

Einführung in Wissenschaftliches Arbeiten

Vorlesung Berechenbarkeit und Komplexität Wintersemester 2016/17. Wer sind wir? Willkommen zu

IR Seminar SoSe 2012 Martin Leinberger

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin:

Vorlesung Information Retrieval Wintersemester 04/05

2006, Falk Neubert (ecoservice / materialboerse.de GmbH)

Hardwarearchitekturen und Rechensysteme

Suchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz

Praktikum Information Retrieval Wochen 12: Suchmaschine

Stapelverarbeitung mit Adobe Acrobat Professional. Leibniz Universität IT Services Anja Aue

Posterdruck mit Microsoft PowerPoint unter Mac OSX

Algorithmen und Berechnungskomplexität I

Übungen zu Datenbanken

Praktikum Datenbanken

Unser Problem lässt sich relativ leicht lösen, indem wir eine so genannte Internet Suchmaschine benutzen.

Software Entwicklung I Übungen ( )

Übungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe

Einführung in Information Retrieval Skriptum zur Vorlesung im WS 11/12. Norbert Fuhr

Kapitel IR:II. II. Grundlagen des Information Retrieval. Retrieval-Evaluierung Indexterme

Recherche im Internet

Information Retrieval

Erfolgreich suchen im Internet

Maschinelle Übersetzung

Theoretische Informatik: Berechenbarkeit und Formale Sprachen

Suchen und Sortieren

Einführung in das wissenschaftliche Arbeiten. Einführung in Word, Excel, Powerpoint

Seminar Green-IT. Wissenschaftliches Arbeiten. Web:

RUHR-UNIVERSITÄT BOCHUM. Angewandte Informatik Infoveranstaltung zum dritten Semester

BASE und andere Suchmaschinen für die wissenschaftliche Recherche

Internet-Suchmaschinen 1. Einführung

Information Retrieval. Peter Kolb

Praktikum zur Vorlesung Einführung in die Geophysik

How To: Bachelor SWT. Heiko Geppert. Fachgruppe Informatik

Hyperlink-Erstellung in InDesign für

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten

Obligationenrecht Allgemeiner Teil (Gruppe 2)

Informationsexplosion oder falsche Suchstrategie? Suchstrategien...

Welche Dienste/Serverarten aus dem Internet gehören zu folgenden Adressen? 2

DER NEUE FORD RANGER Ranger_2011.5_Cover_V2.indd 1 26/08/ :14

Die Lehr - und. physik multimedial

TERMINE VERWALTEN. von CiL-Support-Team Stand: März 2017

Theoretische Informatik: Berechenbarkeit und Formale Sprachen

Grundlagen der Biometrie in Agrarwissenschaften / Ernährungswissenschaften

Literatursuche II. Ziele: Bibliotheksführung in der ZB. Aufbau eines Artikels. Methodenpropädeutikum II Allgemeine Psychologie (Kognition)

Posterdruck mit Microsoft PowerPoint unter Windows 7

Evaluation der Lehre durch die Studierenden: Vorlesungen

Lehrangebot. Fachgebiet Informationssysteme Prof. Dr. Norbert Fuhr. N. Fuhr, U. Duisburg-Essen. Lehrangebot

Suchen mit der Suchmaschine

Plagiatsoftware - Konzepte, Einsatzmöglichkeiten, Systeme

Mathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung

1. Unterrichtsreihe der 4. Klasse "Thema Wolf"

E-Rechnung: Einfach, bequem und sicher zahlen

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2008 Termin: 4. 7.

Transkript:

Information Retrieval p. 1/15 Information Retrieval Übung Raum LF052, Montags 8:30-10:00 Dipl.-Inform. Sascha Kriewel, Raum LF137 sascha.kriewel@uni-duisburg.de Institut für Informatik und Interaktive Systeme Universität Duisburg-Essen Campus Duisburg

Information Retrieval p. 2/15 Abgaben bis Mittwochs 13:30 in Briefkästen vor den Räumen LF135 LF140 alternativ als E-Mail an sascha.kriewel@uni-duisburg.de nur als Adobe PDF (gleiche Deadline) spätere Abgaben können nicht mehr bis zur nächsten Woche korrigiert werden

Information Retrieval p. 3/15 40 % der Übungspunkte Teilnahme an der Übung Vorführen einer eigenen Lösung

Information Retrieval p. 4/15 Abstraktionsstufen aus der Vorlesung: Syntax Semantik Pragmatik In welchen Bereich gehören Wissen, Information oder Daten?

Information Retrieval p. 5/15 Übung zu Evaluation Fallbeispiel: Eine Schülerin soll ein Referat zur Passat schreiben, einem der größten Segelschiffe der Welt, das vor Travemünde liegt. Sie benutzt Google, um Information zu diesem Schiff zu suchen.

Information Retrieval p. 6/15 Suche mit Google: Rangliste

Information Retrieval p. 7/15 Google: Relevanzurteile

Information Retrieval p. 8/15 Distribution = ( - + + - + - - - - - )

Information Retrieval p. 8/15 Distribution = ( - + + - + - - - - - ) Bestimmung von Precision und Recall: p = REL GEF GEF r = REL GEF REL

Information Retrieval p. 8/15 Distribution = ( - + + - + - - - - - ) Bestimmung von Precision und Recall: p = REL GEF GEF r = REL GEF REL Was ist Prec@1, Prec@5, Prec@10?

Information Retrieval p. 9/15 Precision an Rang x p = REL GEF GEF

Information Retrieval p. 9/15 Precision an Rang x p = REL GEF GEF Menge der gefundenen Dokumente = 10

Information Retrieval p. 9/15 Precision an Rang x p = REL GEF GEF Menge der gefundenen Dokumente = 10 Menge der relevanten gefundenen Dokumente an den Punkten 1, 5 und 10 = 0, 3 und 3

Information Retrieval p. 9/15 Precision an Rang x p = REL GEF GEF Menge der gefundenen Dokumente = 10 Menge der relevanten gefundenen Dokumente an den Punkten 1, 5 und 10 = 0, 3 und 3 Prec@1 = 0 1

Information Retrieval p. 9/15 Precision an Rang x p = REL GEF GEF Menge der gefundenen Dokumente = 10 Menge der relevanten gefundenen Dokumente an den Punkten 1, 5 und 10 = 0, 3 und 3 Prec@1 = 0 1 Prec@5 = 3 5

Information Retrieval p. 9/15 Precision an Rang x p = REL GEF GEF Menge der gefundenen Dokumente = 10 Menge der relevanten gefundenen Dokumente an den Punkten 1, 5 und 10 = 0, 3 und 3 Prec@1 = 0 1 Prec@5 = 3 5 Prec@10 = 3 10

Information Retrieval p. 10/15 Precision 0.5 0.4 0.3 0.2 0.1 1 5 10 Rang

Information Retrieval p. 11/15 Bestimmung des Recall Wie lässt sich der Recall an diesen Punkten bestimmen?

Information Retrieval p. 11/15 Bestimmung des Recall Wie lässt sich der Recall an diesen Punkten bestimmen? Eine Möglichkeit: wir nehmen an, dass alle relevanten Dokumente unter den angezeigten Dokumenten sind.

Information Retrieval p. 11/15 Bestimmung des Recall Wie lässt sich der Recall an diesen Punkten bestimmen? Eine Möglichkeit: wir nehmen an, dass alle relevanten Dokumente unter den angezeigten Dokumenten sind. z.b.: Recall an Punkt 3 = 2 3 = 0.66

Information Retrieval p. 11/15 Bestimmung des Recall Wie lässt sich der Recall an diesen Punkten bestimmen? Eine Möglichkeit: wir nehmen an, dass alle relevanten Dokumente unter den angezeigten Dokumenten sind. z.b.: Recall an Punkt 3 = 2 3 = 0.66 Probablistische Interpretation: die Wahrscheinlichkeit, dass ein zufälliges relevantes Dokument im Web unter den ersten 3 Antworten ist, beträgt 66%...

Information Retrieval p. 11/15 Bestimmung des Recall Wie lässt sich der Recall an diesen Punkten bestimmen? Eine Möglichkeit: wir nehmen an, dass alle relevanten Dokumente unter den angezeigten Dokumenten sind. z.b.: Recall an Punkt 3 = 2 3 = 0.66 Probablistische Interpretation: die Wahrscheinlichkeit, dass ein zufälliges relevantes Dokument im Web unter den ersten 3 Antworten ist, beträgt 66%... offensichtlich zu optimistische Schätzung

Information Retrieval p. 12/15 Abschätzungen für REL Wie kann man die Menge der relevanten Dokumente besser abschätzen, um bessere Annäherungen für den Recall zu bekommenn

Information Retrieval p. 12/15 Abschätzungen für REL Wie kann man die Menge der relevanten Dokumente besser abschätzen, um bessere Annäherungen für den Recall zu bekommenn Vollständige Relevanzbeurteilung: selbst für eine Stichprobe völlig inpraktikabel

Information Retrieval p. 12/15 Abschätzungen für REL Wie kann man die Menge der relevanten Dokumente besser abschätzen, um bessere Annäherungen für den Recall zu bekommenn Vollständige Relevanzbeurteilung: selbst für eine Stichprobe völlig inpraktikabel mehr Resultate ansehen (insgesamt ca. 500.000 Treffer)

Information Retrieval p. 12/15 Abschätzungen für REL Wie kann man die Menge der relevanten Dokumente besser abschätzen, um bessere Annäherungen für den Recall zu bekommenn Vollständige Relevanzbeurteilung: selbst für eine Stichprobe völlig inpraktikabel mehr Resultate ansehen (insgesamt ca. 500.000 Treffer) Experten zu Rate ziehen

Information Retrieval p. 12/15 Abschätzungen für REL Wie kann man die Menge der relevanten Dokumente besser abschätzen, um bessere Annäherungen für den Recall zu bekommenn Vollständige Relevanzbeurteilung: selbst für eine Stichprobe völlig inpraktikabel mehr Resultate ansehen (insgesamt ca. 500.000 Treffer) Experten zu Rate ziehen mit anderen Suchmaschinen suchen, Metasuchmaschinen benutzen

Information Retrieval p. 12/15 Abschätzungen für REL Wie kann man die Menge der relevanten Dokumente besser abschätzen, um bessere Annäherungen für den Recall zu bekommenn Vollständige Relevanzbeurteilung: selbst für eine Stichprobe völlig inpraktikabel mehr Resultate ansehen (insgesamt ca. 500.000 Treffer) Experten zu Rate ziehen mit anderen Suchmaschinen suchen, Metasuchmaschinen benutzen Frageerweiterung: z.b. mit zusätzlichen Termen Segelschiff oder Schiff

Information Retrieval p. 13/15 alternative Retrievalsysteme www.anyfinder.de bietet automatische Kategorisierung von Ergebnissen MetaGer: meta.rrzn.uni-hannover.de als Metasuchmaschine Liste von Suchmaschinen: www.ub.uni-hannover.de/dt-suchm.htm Wissenschaftliche Suche, z.b. mit www.scirus.com Metasuche mit forschungsportal.net bietet Suchoperatoren wie Phrase, nah, nicht, oder, sollte CiteSeer: citeseer.ist.psu.edu zur Suche in Publikationen

Information Retrieval p. 14/15 Google: Frageerweiterung

Information Retrieval p. 15/15 Google: Frageerweiterung