Vorlesung im Wintersemester 2003/2004 Internetagenten und mobile Internetdienste Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster wahlster@dfki.de 0681 302 5252 oder 2362 Termine Übungen: Boris Brandherm Christoph Endres Patrick Brandmeier Klausur: 19.2.2004 9.00-11.00 Ausweichtermine: Dienstag 16-18.00? Nächste Vorlesung: 30.10., 9.15 2
Was sind Netzagenten?... ein Netzagent ist ein auf der Agententechnologie beruhendes Programm, das Aufträge des Benutzers ausführt, indem es Netzdienste selbstständig ansteuert, auswertet, interpretiert und die Verarbeitungsergebnisse benutzeradaptiv präsentiert. 3 Intelligente Software-Assistenten für die Infobahn Heute Anwender Zukünftig Anwender Präsentationsdienste z.b. NETSCAPE Suchdienste z.b. Google Persönlicher Netzassistent Intelligente Infrastruktur-Dienste WWW- Dokumente Internet WWW- Dokumente Internet 4
Netbots als persönliche Assistenten Netbot := Intelligenter Agent der Internet-Werkzeuge im Auftrag eines Benutzers bedient z.b. Ahoy!, Jango, AiA Netbots Indices, Verzeichnisse, Suchsysteme WWW Persönliche Assistenten Massendienste 5 Netbot für den Touristen: versucht die Ziele des Reisenden zu befriedigen (generiert Pläne und führt sie aus) Überprüft Verfügbarkeit Findet günstigstes Angebot Beachtet persönliche Präferenzen (z.b. Frequent Flyer Programm, Sitzplatz-Präferenz) Teilt dem Reisenden mit, wenn Sitzplätze frei werden Nachteile konventioneller Internet-Suchsysteme Suche in manuell erstellten Verzeichnissen (z.b. Yahoo!) Für große dynamische Kategorien werden aktuelle Verweise nicht gefunden (Klassifikation zu aufwendig und zu langsam) Für kleine und statische skategorien viele korrekte und vollständige Suchergebnisse Suche in automatisch generierten Verzeichnissen (z.b. Google) Sehr umfangreiche und unpräzise Ergebnisse, die vom Benutzer weiter gefiltert werden müssen Relativ vollständig bis auf aktuelle Seiten, die noch nicht indiziert wurden 6
Intelligente Suchassistenten: Weniger ist mehr Netbots sind spezielle Softbots, die Internet-Dienste im Auftrag eines Benutzers effizient ansteuern, gezielt kombinieren und intelligent auswerten. Sie integrieren KI-Techniken wie heuristische Suche, deduktives Planen, maschinelles Lernen und Sprachverarbeitung. Frühe Beispiele für Netbots: MetaCrawler ist ein Netbot, der durch Transformation einer einzigen Suchanfrage mehrere Suchmaschinen parallel ansteuert und deren Ergebnisse filtert, bevor er sie zu einem Gesamtergebnis vereinigt. Ahoy! ist ein wissensbasierter Netbot zum Auffinden persönlicher Homepages u.a. durch Nutzung des MetaCrawlers. Er findet im Mittel nach 13 Sekunden weltweit die Homepage für eine gesuchte Person. 7 Intelligente Infrastruktur-Dienste auf der Infobahn Konsument Käufer von: Waren Dienstleistungen Multimodale WWW-Seiten Software Agent sfilterung skondensierung svermittlung/makler Teleshopping-Assistenz Telemarketing-Assistenz Übersetzungsdienste Datenanalyse Wissensgewinnung Anbieter Verkäufer von: Waren Dienstleistungen Wissen über: Nutzungsmuster Benutzermodelle Kundenprofil 8
Drei Generationen von Erste Generation Zweite Generation Dritte Generation Statische Papierersatz in HTML Interaktive JavaScripts und Applets Datenbank-Zugriff und Template-basierte Generierung Virtuelle Netbots, sextraktion, Presentationsplaner Benutzermodellierung, Maschinelles Lernen, Online Layout Dynamische Adaptive 9 Was ist eine virtuelle Webseite? Bekannt in der Informatik: virtueller Speicher, virtuelle Relation, virtuelle Realität (VR) Eine virtuelle Webseite wird jeweils aktuell als Kombination von verschiedenen Medienobjekten aus unterschiedlichen Web-Angeboten oder als Transformation einer realen Webseite erzeugt. wirkt wie eine reale Webseite, aber ist nicht persistent gespeichert. integriert und koordiniert neu synthetisierte und im Netz gefundene Medienobjekte. kann auf ein spezifisches Nutzerprofil zugeschnitten werden und an einen bestimmten Interaktionskontext adaptiert werden. hat eine zugrundeliegende Repräsentation des Präsentationskontextes, so daß ein Schnittstellenagent Komponenten der Seite dokumentieren und erklären kann. 10
Extrahiertes Material wird durch Abstraktion und Annotationstechniken hervorgehoben 11 Netbots im Vergleich mit Push-Technologien 1 Massenaussendung (Push-Technologie) Kunde 1 Kunde 2 Anbieter + kein Kundenaufwand - geringe Adaption Kunde N 2 Interaktive Anfrage (Pull) Anfrage Kunde Anbieter + gute Adaption - großer Kundenaufwand 3 Netbots mit parallelen Anfragen (Parallel Pull) Anbieter 1 Kunde Anfrage Netbot Anbieter 2 + gute Adaption + geringer Kundenaufwand Anbieter N 12
Software Agenten Visualisierung als Persona Autonome Interaktionsplanung Initiative in der Interaktion AKTIV Verstehen von Benutzeranfragen Beantwortung von Klärungsfragen Dialoge mit gemischter Initiative INTER- AKTIV INTERNET AGENTEN REAKTIV Sofortige Reaktion auf Unterbrechungen, Kritik und Klärungsfragen Direkte Manipulation PROAKTIV 13 Antizipation von Benutzerwünschen Adaption an Benutzerziele Überbeantwortung von Fragen Ahoy! - ein Softbot zur Suche von persönlichen Homepages Nur zwei obligatorische Eingaben: Vorname und Familienname der Person Benutzt einen anderen Softbot namens Metacrawler als Meta-Suchhilfe Verwendet außerdem verschiedene Suchhilfen für email-adressen -OKRA, WhoWhere?, IAF Greift auf die Institutionen-Datenbank von Yahoo! zu 14
Die Architektur von Ahoy! MetaCrawler Netbot mit Zugriff auf WWW-Suchdienste URL- Generator Anfrage: Name Institution Email- Suchdienste Institutionen- Suchdienste Filterung und Bewertung URL- Zugriff und Auswahl Persönliche Persönliche Homepage Homepage Ahoy! 15 Der URL-Generator von Ahoy! Ahoy! findet auch persönliche Homepages, die in keinem Index verzeichnet sind, indem es wissensbasiert potentielle URLs für die gesuchte Person generiert, danach sucht und - falls sie existieren - das Ergebnis filtert und präsentiert. Der URL-Generator greift auf eine URL-Musterbasis zu, die aus Tripeln der Form [name, institution, URL] besteht. Diese Musterbasis wird durch den Musterextraktor gebildet. Jede mit hoher Bewertung über MetaCrawler gefundene Seite wird als Erfolg gewertet und vom Musterextraktor als positives Lernbeispiel betrachtet: Es werden die Namen von Web-Servern an Institutionen gelernt. Es werden Pfadnamen von Homepages auf den Servern gelernt, wobei Substrings mit dem Personennamen beachtet werden. 16
Beispiel für die Generierung einer URL durch Ahoy! Gesucht sei die persönliche Homepage von Rob Jacob an der Tufts Universität. Die Seite sei über Suchsysteme nicht zu finden. Bei früheren Suchen hat Ahoy! folgende Server bei Tufts entdeckt und durch den Musterextraktor in der Musterdatenbasis abgelegt: www.cs.tufts.edu mit Pfadnamen wie ~[username]/ emerald.tufts.edu mit Pfadnamen wie people/[username]/ Falls Rob Jacobs Benutzername durch die email-suchsysteme nicht gefunden wird, rät der URL-Generator einen möglichen Benutzernamen (z.b. rjacob, rob, robjacob) und kombiniert ihn mit den gelernten Servern und Pfadnamen. 17 Potentielle URL für eine nicht indizierte Homepage Da bekannt ist, daß Rob Jacobs an der Tufts Universität ist, sind Web-Server bei tufts.edu relevant. Ahoy! testet folgende URLs: www.cs.tufts.edu/~rjacob/ www.cs.tufts.edu/~robjacob/ www.cs.tufts.edu/~rob/ www.cs.tufts.edu/~rj/ www.cs.tufts.edu/~robj/ www.cs.tufts.edu/~jacob/ emerald.tufts.edu/people/rjacob/ emerald.tufts.edu/people/robjacob/ emerald.tufts.edu/people/rob/ emerald.tufts.edu/people/rj/ emerald.tufts.edu/people/robj/ emerald.tufts.edu/people/jacob/ 18