Intelligente Agenten Einige einfache Überlegungen zu Agenten und deren Interaktionsmöglichkeiten mit ihrer Umgebung. Agent benutzt: Sensoren Aktuatoren (Aktoren; Effektoren) zum Beobachten/Mess seiner Umgebung ergibt zeitliche Beobachtungssequenz zur Manipulation der Umgebung/seiner Position Agent Sensoren Umgebung Aktuatoren KI, SS 11, Folien 1 Ag, Seite 1 14. April 2011
Intelligente Agenten Agentenfunktion: Agentenprogramm { Beobachtungsfolgen} {Aktionen}. vollständige Tabelle / Algorithmus. KI, SS 11, Folien 1 Ag, Seite 2 14. April 2011
Intelligente Agenten- Beispiel Staubsaugerwelt (Russel / Norvig) varrierbare Modellwelt (Mikrowelt) KI, SS 11, Folien 1 Ag, Seite 3 14. April 2011
Staubsaugerwelt zwei Räume A, B in denen sich der Agent (Staubsauger) aufhalten kann. Jeder Raum kann Dreck enthalten oder nicht. Der Agent kann nur seinen Raum beobachten: Sauber/ Dreckig, mögliche Aktionen: InsAndereQuadrat, Saugen, NichtsTun. A B KI, SS 11, Folien 1 Ag, Seite 4 14. April 2011
Staubsaugerwelt implizite Annahmen: der Agent ist nur an einem Ort. Aktionen nur zur aktuellen Zeit und am aktuellen Ort Umgebung kann sich unabhängig vom Agenten verändern Agent kann nicht beobachten, wo er ist seine Aktionen sind immer ausführbar. Er kann nur eine Aktion gleichzeitig ausführen. KI, SS 11, Folien 1 Ag, Seite 5 14. April 2011
Staubsaugerwelt Wann ist der Agent rational / gut / vernünftig / intelligent? Vorgabe: ein (externes) Performanzmaß Leistungsbewertung des Agenten. Beispiele Alles soll immer maximal sauber sein. Konsequenz wäre, dass der Staubsauger immer hin und her fährt und saugt. möglichst sauber sein UND geringer Stromverbrauch diskrete Zeit, Sauberkeitspukte pro pro Zeiteinheit und Zimmer Wechsel des Zimmers: Minuspunkte Maß: mittlere Punktzahl pro Zeit maximal sauber UND keine Störung der Bewohner. Agent kann nicht beobachten, ob er stört!? KI, SS 11, Folien 1 Ag, Seite 6 14. April 2011
Güte des Agenten Das Performanzmaß Das Vorwissen über die Umgebung Die möglichen Aktionen Die aktuelle Beobachtungsfolge Ein vernünftiger (intelligenter, rationaler) Agent ist derjenige, der stets die optimale Aktion bzgl des Performanzmaßes wählt, aufgrund seiner Beobachtungsfolge und seines Vorwissens über die Umgebung. Vorwissen kann z.b. sein: die stochastische Verteilung der Verschmutzung über die Zeit Agent kann oft das Performanzmaß nicht berechnen Ersatz: Bewertungsfunktion (utility function) KI, SS 11, Folien 1 Ag, Seite 7 14. April 2011
Lernen Vorwissen über die Umgebung oft nicht ausreichend Umgebung kann sich ändern Deshalb: Mittels der Sensoren Wissen über die Umgebung zu sammeln Beispiel: Erkundung der Umgebung (Karte) lernfähig zu sein, bzw. sich adaptiv zu verhalten, aufgrund der Beobacht Autonomie: Wenn der Agent eher aus seinen Beobachtungen lernt und nicht auf vorprogrammierte Aktionen angewiesen ist. KI, SS 11, Folien 1 Ag, Seite 8 14. April 2011
Verschiedene Varianten von Umgebungen Klassifikation nach Eigenschaften der Umgebungen: Vollständig beobachtbar vs. teilweise beobachtbar Der Staubsauger kann z.b. nur sein eigenes Quadrat beobachten. Deterministisch vs. Stochastisch. Der Dreck erscheint zufällig in den Quadraten. Episodisch vs. sequentiell. Episodisch: Es gibt feste Zeitabschnitte, in denen beobachtet und agiert wird, und die alle unabhängig voneinander sind. Sequentiell. Es gibt Spätfolgen der Aktionen. Statisch vs. Dynamisch Dynamisch: Umgebung ändert sich unabhängig vom Agenten Diskret vs. Stetig. Ein Agent oder Multiagenten. Bei Multiagenten kann man unterscheiden zwischen Gegnern / Wettbewerber / Kooperierenden Agenten. bzw Kombinationen KI, SS 11, Folien 1 Ag, Seite 9 14. April 2011
Agenten Beispiele Beispieltabelle aus Russel / Norvig Arbeitsumgebung Beobachtbar Deterministisch Episodisch Statisch Diskret Agenten Kreuzworträtsel vollst. det. seq. statisch diskret 1 Schach mit Uhr vollst. strat. seq. semi diskret n Poker teilw. strat. seq. statisch diskret n Backgammon vollst. stoch. seq. statisch diskret n Taxifahren teilw. stoch. seq. dyn. stetig n Medizinische teilw. stoch. seq. dyn. stetig 1 Diagnose Bildanalyse vollst. det. episod. semi stetig 1 Interaktiver Englischlehrer teilw. stoch. seq. dyn. diskret n KI, SS 11, Folien 1 Ag, Seite 10 14. April 2011
Struktur des Agenten Ein Agent besteht aus: Physikalischer Aufbau inkl. Sensoren und Aktuatoren; Architektur des Agenten. dem Programm des Agenten KI, SS 11, Folien 1 Ag, Seite 11 14. April 2011
Programm des Agenten / Möglichkeiten Einfacher Reflex-Agent: Tabelle: Beobachtung Aktion Tabellengesteuerter Agent: endlicher Automat mit einer Tabelle von Einträgen: (Zustand, Beobachtung) Zustand,Aktion) Oder allgemeiner: (Zustand, Beobachtungsfolge) (Zustand, Aktion) Programmgesteuerter Agent: programmierte Funktion: (Zustand, Beobachtung) Aktion, Zustand KI, SS 11, Folien 1 Ag, Seite 12 14. April 2011
Strukturierung des Agenten / Möglichkeiten Modellbasierte Strukturierung Zustand Umgebung Z.B. beim Staubsauger: Lageplan und letzte Orte/Aktionen Zweckbasierte Strukturierung (goalbased, zielbasiert) Aktion wird so gewählt, dass möglichst das vorgegebene Ziel erreicht wird. Nutzenbasierte Strukturierung (utility-based, nutzenbasiert) Aktion wird so gewählt, dass ein internes Gütemaß sich verbessert Nutzenfunktion (internes Gütemaß) KI, SS 11, Folien 1 Ag, Seite 13 14. April 2011
Bewertungsfunktion Aufgrund der eingeschränkten Beobachtung: kann das Performanzmaß i.a nicht vom Agenten berechnet werden. Bewertungsfunktion (utility function) zur internen Bewertung der zukünftigen Aktionen das vom Agenten(-programm) berechnet werden kann. Beispiel: Staubsauger mit Stromspar-Optimierung kann nicht wissen ob der andere Raum schon Dreck enthält Utility-function basierend auf dem Erwartungswert der Wartezeit. KI, SS 11, Folien 1 Ag, Seite 14 14. April 2011
Lernende Agenten Tabellen sind oft viel zu groß zu aufwändig zu erstellen zu inflexibel (Agent nicht autonom) Abhilfe können Lernverfahren bieten andere Programm-Struktur der Agenten: Lernmodul Ausführungmodul (bisheriges Programm) (zu Lernmethoden siehe Kap. zum Lernen) KI, SS 11, Folien 1 Ag, Seite 15 14. April 2011