KI Wintersemester 2013/2014 Intelligente Agenten Grundlagen der Künstlichen Intelligenz Wintersemester 2014/2015 Marc Toussaint 2006-2014 Heidemann, Bruhn, Toussaint
Überblick Überblick Agentenbegriff, Beispiele für Agenten Agentenfunktion, Agentenprogramm Typisierung von Umgebungen Typisierung der Agentenprogrammierung 2
Agenten (1) Was ist ein Agent? Agent: nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren Was sind 1. Sensoren, 2. Aktuatoren, 3. Umgebung, 4. Erfolgskriterium? 3
Agenten (2) PEAS Beschreibung (P)erformance Element Erfolgskriterium (E)nvironment Umgebung (Zustandsraum der Umgebung) (A)ctuators Aktuatoren (Aktionsraum & Beeinflussung des Zustands) (S)ensors Sensoren (Sensorinformation abhänig vom Zustand) 4
Agenten (3) Beispiele I Montageroboter 1. Sensoren: Kamera, taktile Sensoren 2. Aktuator: Greifer 3. Umgebung: Schraube, Gewinde, Beleuchtung 4. Erfolgskriterium: Schraube eindrehen Autonomes Fahrzeug (DARPA Challenge): 1. Sensoren: Laser Range-Scanner, Kamera, GPS 2. Aktuatoren: Räder 3. Umgebung: Wüste 4. Erfolgskriterium: Ziel schnell erreichen 5
Agenten (4) Beispiele II Spielautomat (Spielhalle): 1. Sensoren: Knöpfe, Hebel 2. Aktuatoren: z.b. Bildschirm, Zahlenräder, Glocke 3. Umgebung: Spieler 4. Erfolgskriterium: Geld abnehmen (Unterziele: Spaß machen, abhängig machen) Expertensystem ( Software-Agent ): 1. Sensoren: Datenempfang 2. Aktuatoren: Versenden von Daten 3. Umgebung: Ratsuchender 4. Erfolgskriterium: nach wenigen Anfragen richtige Auskunft geben 6
Agenten (5) Beispiele III Staubsaugerwelt: 1. Sensoren: für Position und Schmutz 2. Aktuatoren: nach rechts / links bewegen; Sauger 3. Umgebung: Felder A, B, ggf. mit Schmutz 4. Erfolgskriterium: alle Felder sauber machen 7
Agenten (6) Formal Sensorsignale: Aktionen: Zustand der Umgebung: Erfolgskriterium: oder eine Kostenfunktion Sensormodell: Umweltmodell: Agentenfunktion: 8
Agentenfunktion / Agentenprogramm (1) Agentenfunktion und Agentenprogramm Agentenfunktion wählt Aktion in Abhängigkeit von der Wahrnehmungsfolge aus kann im Prinzip als Lookup-Table dargestellt werden die aber i.a. sehr groß ist Agentenprogramm implementiert die Agentenfunktion (irgendwie) Programm ersetzt die Tabelle leistet i.a. Kompression der Tabelle durch Aufstellen (häufig impliziter) Regeln 9
Agentenfunktion / Agentenprogramm (2) Agentenfunktion der Staubsaugerwelt Wahrnehmungsfolge A, sauber A, schmutzig B, sauber B, schmutzig B, schmutzig, B, sauber B, sauber, B, sauber, B, sauber B, sauber, B, sauber, B, schmutzig 100x (B, sauber), B, schmutzig Aktion Rechts Saugen Links Saugen Links Links Saugen Saugen 10
Agentenfunktion / Agentenprogramm (3) Bemerkungen Tabelle unendlich groß, da beliebig lange Wahrnehmungsfolgen! Je nach den gewählten Aktionen muss nicht unbedingt jede Zeile der Tabelle zur Anwendung kommen. einfacher: Agentenprogramm Da Tabelle jede mögl. Wahrnehmungsfolge abdeckt, können im Prinzip beliebig komplexe Agentenfunktionen realisiert werden, die vergangene Wahrnehmungen einbeziehen (Bsp. letzte Zeile) und unter Umständen nicht leicht durch Programm (Regeln) zu erfassen sind. 11
Agentenfunktion / Agentenprogramm (4) Agentenprogramm der Staubsaugerwelt Aktuelle Wahrnehmung A oder B, schmutzig A, sauber B, sauber Aktion Saugen Rechts Links Achtung: Die Tabelle ist ein Agentenprogramm, keine Agentenfunktion! Programm implementiert nur eine sehr einfache Agentenfunktion, die vergangene Wahrnehmungen nicht berücksichtigt. d.h. wenn z.b. alle Felder sauber sind, oszilliert der Sauger zwischen den Feldern 12
Umgebungen (1) Typisierung von Umgebungen Grad der Beobachtbarkeit deterministisch / stochastisch episodisch / sequenziell statisch / dynamisch diskret / kontinuierlich Einzelagent / Multiagenten 13
Umgebungen (2) Grad der Beobachtbarkeit Problem: Was erfassen die Sensoren? Staubsauger: Position des Saugers Zustand des aktuellen / benachbarten Feldes zwei Arten von teilweiser Beobachtbarkeit: Teil der Umgebung ist unzugänglich für Sensoren (z.b. Nachbarfeld) Beobachtung ist ungenau (z.b. Sensor verschmutzt) 14
Umgebungen (3) Deterministisch vs. Stochastisch Deterministisch Zukünftiger Zustand der Umgebung hängt allein vom gegenwärtigen Zustand + den Aktionen ab. Stochastisch Umgebung enthält Zufallselemente, ihre Entwicklung ist daher auch bei vollständiger Beobachtung nicht vorhersagbar. Wahrnehmung in der Praxis: Umgebung ist nicht vollständig beobachtbar und erscheint daher stochastisch. 15
Umgebungen (5) Statisch vs. Dynamisch Statisch Umgebung ändert sich nur durch Aktionen des Agenten. Dynamisch Umgebung ändert sich auch unabhängig von den Aktionen, insbesondere auch wenn der Agent nicht beobachtet! 17
Umgebungen (6) Diskret vs. Kontinuierlich Betrifft: Zeit Wahrnehmungen Aktionen Beispiel: Schach als Spiel: diskrete Zeit, Wahrnehmungen, Aktionen Schachfigur physisch setzen: kontinuierliche Zeit, Wahrnehmungen (z.b. Druck der Figur auf die Finger), Aktionen (Muskeln steuern) Technisch meist diskrete Darstellung kontinuierlicher Vorgänge (z.b. Kamera mit 25 Bildern/s). 18
Umgebungen (7) Einzelagent vs. Multiagenten Unterscheidung: kooperative Multiagenten konkurrierende Agenten Realwelt: häufig Mischungen 19