Künstliche Intelligenz Intelligente Agenten Claes Neuefeind Sprachliche Informationsverarbeitung Universität zu Köln 26. Oktober 2011
Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten Aufbau Agententypen Seminarplan
Konzept des Agenten Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten Aufbau Agententypen Seminarplan
Konzept des Agenten Abbildung: Ein Agent Ein Agent ist alles, was seine Umgebung über Sensoren wahrnehmen kann u. in dieser Umgebung durch Aktuatoren handelt
Konzept des Agenten Agentenfunktion bildet Wahrnehmungsfolgen auf Aktionen ab (abstrakte, externe Beschreibung) Intern implementiert durch ein Agentenprogramm Agentenprogramm läuft auf einer physischen Architektur, um Aktionen zu produzieren
Konzept des Agenten Beispiel: Die Staubsaugerwelt Abbildung: Die Staubsaugerwelt Umgebung: Quadrate A und B Wahrnehmungen: [Ort, Zustand] - z.b. [A, schmutzig] Aktionen: links, rechts, saugen, nichts tun
Konzept des Agenten Beispiel: Die Staubsaugerwelt Abbildung: Agentenfunktion als Tabelle
Konzept des Agenten Konzept des Agenten Agenten-Konzept dient Entwurf und Analyse von Systemen Beschreibungsmodell Leitfrage: Welche Aktion soll bei welcher Wahrnehmungsfolge gewählt werden? Wie wird die Tabelle richtig ausgefüllt?
Rationalität Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten Aufbau Agententypen Seminarplan
Rationalität Rationalität Ein rationaler Agent tut das Richtige
Rationalität Rationalität Ein rationaler Agent tut das Richtige Annäherung: Der erfolgreichste Agent
Rationalität Rationalität Ein rationaler Agent tut das Richtige Annäherung: Der erfolgreichste Agent Ob ein Agent rational ist, hängt ab von: Leistungsbewertung (objektive Erfolgskriterien) Umgebungsbeschreibung (Vorwissen) Aktionen (Möglichkeit zur Interaktion) Wahrnehmungsfolge (Sensoren)
Rationalität Definition Ein rationaler Agent wählt immer die Aktion, von der eine Maximierung der Leistungsbewertung erwartet werden kann - gegeben seine bisherige Wahrnehmungsfolge sowie sein (Vor-) Wissen über die Umgebung. (RN, S. 59) Rationalität Allwissenheit Ein rationaler Agent kennt nur das erwartete Ergebnis seiner Handlungen, ein allwissender das tatsächliche Rationalität Perfektion Rationalität maximiert die erwartete Leistung, Perfektion hingegen die tatsächliche
Rationalität Das Konzept der Rationalität Rationalität erfordert Möglichkeiten... zur Informationssammlung/Exploration Veränderung zukünftiger Wahrnehmungen zur Maximierung der zukünftigen Leistungen zum Lernen durch Beobachtung Erweiterung des Wissens, um auf Veränderungen reagieren zu können zur Autonomie des Agenten Kompensierung unvollständigen oder fehlerhaften Vorwissens
Umgebungen Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten Aufbau Agententypen Seminarplan
Umgebungen PEAS-Beschreibung Beschreibung der Arbeitsumgebung analog zu Agentenspezifikation: Performance (Leistungsbewertung) Environment (Umgebungsbeschreibung) Actuators (Aktionen) Sensors (Wahrnehmungsfolge)
Umgebungen PEAS Beispiele Staubsauger-Welt ( geschlossen ) Automatisches Taxi ( offen, siehe z.b. www.2getthere.eu/)
Umgebungen
Umgebungen Umgebungen: Eigenschaften Alle Arbeitsumgebungen können anhand weniger Dimensionen klassifiziert werden: Vollständig vs. teilweise beobachtbar Deterministisch vs. stochastisch Episodisch vs. sequenziell Statisch vs. dynamisch Diskret vs. stetig Einzel- vs. Multi-Agenten
Umgebungen Umgebungen: Eigenschaften Anhand der Eigenschaften lässt sich auch die Komplexität von Problembeschreibungen fassen Einfachste Arbeitsumgebung: Voll beobachtbar, deterministisch, episodisch, statisch, diskret und Einzel-Agent. Reale Situationen sind zumeist: Teilweise beobachtbar, stochastisch, sequentiell, dynamisch, stetig und Multi-Agent.
Umgebungen
Aufbau Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten Aufbau Agententypen Seminarplan
Aufbau Struktur von Agenten Bisher: Externe Beschreibung von Agenten Agentenfunktion Arbeitsumgebung Jetzt: Interne Beschreibung Agentenfunktion ist implementiert durch ein Agentenprogramm Agent = Architektur + Programm
Aufbau Grundaufbau Input = aktuelle Wahrnehmungen Output = Aktion Programm = verarbeitet Input, um Output zu erzeugen
Aufbau Ein Agentenprogramm Der einfachste Fall: Agentenprogramm, das seine Agentenfunktion explizit als Tabelle enthält Aufruf für jede neue Wahrnehmung, gibt zur jew. aktuellen Wahrnehmungsfolge eine Aktion zurück
Aufbau Agenten: Die Staubsaugerwelt Abbildung: Agentenfunktion als Tabelle
Agententypen Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten Aufbau Agententypen Seminarplan
Agententypen Agententypen Vier Arten von Agentenprogrammen: Einfache Reflex-Agenten Modellbasierte Reflex-Agenten Zielbasierte Agenten Nutzenbasierte Agenten Alle erweiterbar zu lernenden Agenten
Agententypen Einfache Reflex-Agenten Aktionsauswahl auf Basis aktueller Wahrnehmung Implementiert durch einfache Bedingung-Aktion-Regeln ( wenn schmutzig, saugen )
Agententypen Einfache Reflex-Agenten Agentenspezifisches Programm: Im Unterschied zur Tabelle hier nur Aktionen für aktuelle Wahrnehmung statt für gesamte Wahrnehmungsfolge Viel weniger Einträge nötig (4 statt 4 T )
Agententypen Einfache Reflex-Agenten Allgemeinere Implementation: Allgemeine Regel zur Aktionsauswahl: Bedingung muss mit aktuellem Zustand der Wahrnehmung übereinstimmen
Agententypen Modellbasierte Reflex-Agenten Aktionsauswahl unter Hinzunahme eines internen Zustands Umgang mit teilweise beobachtbaren Umgebungen Nutzung von Weltwissen für Update des internen Zustands Modell der Welt
Agententypen Modellbasierte Reflex-Agenten Agentenprogramm: Verwaltet mittels eines internen Modells den Teil der Welt, den der Agent bei der aktuellen Wahrnehmung nicht sieht. Bei jeder neuen Wahrnehmung bzw. Aktion wird das Modell aktualisiert.
Agententypen Zielbasierte Agenten Aktionsauswahl auf Grundlage von Zielen Update von Regeln & internem Zustand anhand Weltmodell berücksichtigt Zukunft (statt nur Erfahrung) flexibler bei Veränderungen, da nur das Wissen, nicht die Regeln angepasst werden müssen (KI: Suche, Planen)
Agententypen Nutzenbasierte Agenten Aktionsauswahl unter Hinzunahme einer Nutzenfunktion: erwarteter Nutzen = Durchschnitt aller Ergebniszustände (gewichtet nach Wahrscheinlichkeit ihres Eintreffens) Entscheidungshilfe bei unsicheren / konkurrierenden Zielen lokale Def. von Rationalität (Nutzen bei aktueller Aktion)
Agententypen Lernende Agenten Bisherige Agentenprogramme beschreiben ausschließlich Methoden der Aktionsauswahl Turing (1950): Lehre sie, statt sie zu instruieren Vorteile: Robustheit hinsichtlich unbekannter Umgebungen geringerer Programmieraufwand
Agententypen Lernende Agenten Kritik: Bewertet Leistung (festgelegter Leistungsstandard) Lernelement: Ermittelt Verbesserungen für Leistungselement Leistungselement: Aktionsauswahl (= Agentenprogramm) Problemgenerator: Schlägt Aktionen vor, die zu neuen, informativen Erfahrungen führen (Exploration & Verwertung)
Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten Aufbau Agententypen Seminarplan
Semesterplan http://www.spinfo.phil-fak.uni-koeln.de/spinfo-ki.html
Hausaufgabe Kapitel 2 aus Russell/Norvig