Intelligente Agenten

Ähnliche Dokumente
Künstliche Intelligenz

3.1 Agenten. Grundlagen der Künstlichen Intelligenz. 3.1 Agenten. 3.2 Rationalität. 3.3 Zusammenfassung. Einführung: Überblick

2 Intelligente Agenten - Grundlagen

Intelligente Agenten

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz

Rationale Agenten Rationalität

Methoden der KI in der Biomedizin Logische Agenten 1

Einleitung und Intelligente Agenten MAS-Seminar - SS2008

Planungsansätze aus der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz

Ubung 1 - Intelligente Agenten und Umgebungen. Aufgabe 1 - Begrie

Einführung in die Künstliche Intelligenz SS 18 Prof. Dr. J. Fürnkranz, Prof. Dr. K. Kersting

Künstliche Intelligenz

Multiagentensimulation im Verkehr: Eignet sich die Multiagentensimulation zur Abbildung der Verhaltensstruktur im Verkehr?

Einführung Intelligente Agenten

Reaktive und Hybride Agenten

Künstliche Intelligenz

Künstliche Intelligenz

Kapitel 3 Ereignisdiskrete Systeme (III)

Seminar zum Thema Künstliche Intelligenz Software-Agenten. Kay Hasselbach mi5482

Künstliche Intelligenz Softwaretechnologie: Prolog

Einführung und Intelligente Agenten Vortrag vom Sara Winter, Kai Mismahl, Anja Philippsen

8. Reinforcement Learning

Intelligent Agents. Intelligent Agents. Andreas Kudenko//Andreas Skiba

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Algorithmen für Computerspiele

WAHRSCHEINLICHKEITSRECHNUNG

RoboCup: Simulierte Fußballroboter p.1/12

Zusammenfassung der 8. Vorlesung

Agenten. Seminar Wissensrepräsentation. Karzhaubekova, Gulshat

Arbeitsblatt: Wie rede ich mit einem Roboter?

Reinforcement Learning

Seminar zum Thema Künstliche Intelligenz Seminararbeit Software-Agenten

Einführung in die Methoden der Künstlichen Intelligenz. Einführung

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Künstliche Intelligenz

Meilenstein 3 - Abschlusspräsentation

Prof. Dr. Lars Schmidt-Thieme. Schüler-Universität, 10. Mai 2012

Artificial Intelligence in computer games

Intelligente Transportsysteme

AGENTEN kombinieren die Flexibilität der sozialen Interaktion

Übersicht. Prädikatenlogik höherer Stufe. Syntax der Prädikatenlogik 1. Stufe (mit Gleichheit)

Kapitel 3: Problemformulierungen in der KI. oder das Problem ist die halbe Lösung

Capturing Reality Hoch aufgelöste statische und dynamische Kartierung für hochautomatisiertes Fahren.

Einfacher Problemlösungsagent. Übersicht. Begriffsdefinitionen für Einfach-Probleme

Reinforcement Learning

Forschungsmethoden in der Sozialen Arbeit

Künstliche Intelligenz

Simulation als epistemologische Grundlage für intelligente Roboter

Übersicht. Künstliche Intelligenz: 3. Problemlösen durch Suche Frank Puppe 1

1 Vom Problem zum Programm

Seminar Künstliche Intelligenz Wintersemester 2013/14

Künstliche Intelligenz - Intelligente Agenten im WS 07/08 - FH Köln Campus Gummersbach

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Grundlagen der Regelungstechnik. Josef Pedevilla

Woher Methoden der KI stammen Gebiete der Künstlichen Intelligenz wissensbasierte Systeme

Einführung in die Informatik Turing Machines

wie in statischen Bayesianischen Spielen... doch dann ziehen die Spieler sequentiell

Einführung in die Methoden der Künstlichen Intelligenz. Einführung

Einführung in die Simulation. Dr. Christoph Laroque Wintersemester 11/12. Dresden,

Die Harmonische Reihe

Einführung in die Informatik Turing Machines

Planungsstrategien. Sven Tollmien WI 5011

Allgemeingültige Aussagen

Kapitel 2: Mathematische Grundlagen

Dynamisch adaptive Systemarchitektur zur Optimierung der Prozesssteuerung am Beispiel der Getreideernte

Der PECS-Agent als Referenzmodell

Agent. Agentensysteme: Eine praktische Einführung. von agere (lat.): u.a. tätig sein, handeln

Augmented Reality. (Die Realität fotorealistisch erweitern) Michael Zollhöfer Graphics, Vision, and Video Group

Optimierung. Vorlesung 13

Hauptseminar Roboternavigation. Kartenaufbau nach Thrun

Reinforcement Learning

Von x 2 zu 2x. Ausgangspunkt unserer Überlegungen ist eine lineare Funktion der Form y=kx+d, welche zunächst in Abbildung 1 grafisch dargestellt wird.

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Stochastische dynamische Optimierung

Was können Roboter uns übers Lernen sagen. Dr. Armin Duff Leiter Didaktik, Technorama

Systemanalyse und Modellbildung

Zusammenfassung der 7. Vorlesung

7. LINEARISIERUNG UND DAS DIFFERENTIAL

Künstliche Intelligenz

Transkript:

KI Wintersemester 2013/2014 Intelligente Agenten Grundlagen der Künstlichen Intelligenz Wintersemester 2014/2015 Marc Toussaint 2006-2014 Heidemann, Bruhn, Toussaint

Überblick Überblick Agentenbegriff, Beispiele für Agenten Agentenfunktion, Agentenprogramm Typisierung von Umgebungen Typisierung der Agentenprogrammierung 2

Agenten (1) Was ist ein Agent? Agent: nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren Was sind 1. Sensoren, 2. Aktuatoren, 3. Umgebung, 4. Erfolgskriterium? 3

Agenten (2) PEAS Beschreibung (P)erformance Element Erfolgskriterium (E)nvironment Umgebung (Zustandsraum der Umgebung) (A)ctuators Aktuatoren (Aktionsraum & Beeinflussung des Zustands) (S)ensors Sensoren (Sensorinformation abhänig vom Zustand) 4

Agenten (3) Beispiele I Montageroboter 1. Sensoren: Kamera, taktile Sensoren 2. Aktuator: Greifer 3. Umgebung: Schraube, Gewinde, Beleuchtung 4. Erfolgskriterium: Schraube eindrehen Autonomes Fahrzeug (DARPA Challenge): 1. Sensoren: Laser Range-Scanner, Kamera, GPS 2. Aktuatoren: Räder 3. Umgebung: Wüste 4. Erfolgskriterium: Ziel schnell erreichen 5

Agenten (4) Beispiele II Spielautomat (Spielhalle): 1. Sensoren: Knöpfe, Hebel 2. Aktuatoren: z.b. Bildschirm, Zahlenräder, Glocke 3. Umgebung: Spieler 4. Erfolgskriterium: Geld abnehmen (Unterziele: Spaß machen, abhängig machen) Expertensystem ( Software-Agent ): 1. Sensoren: Datenempfang 2. Aktuatoren: Versenden von Daten 3. Umgebung: Ratsuchender 4. Erfolgskriterium: nach wenigen Anfragen richtige Auskunft geben 6

Agenten (5) Beispiele III Staubsaugerwelt: 1. Sensoren: für Position und Schmutz 2. Aktuatoren: nach rechts / links bewegen; Sauger 3. Umgebung: Felder A, B, ggf. mit Schmutz 4. Erfolgskriterium: alle Felder sauber machen 7

Agenten (6) Formal Sensorsignale: Aktionen: Zustand der Umgebung: Erfolgskriterium: oder eine Kostenfunktion Sensormodell: Umweltmodell: Agentenfunktion: 8

Agentenfunktion / Agentenprogramm (1) Agentenfunktion und Agentenprogramm Agentenfunktion wählt Aktion in Abhängigkeit von der Wahrnehmungsfolge aus kann im Prinzip als Lookup-Table dargestellt werden die aber i.a. sehr groß ist Agentenprogramm implementiert die Agentenfunktion (irgendwie) Programm ersetzt die Tabelle leistet i.a. Kompression der Tabelle durch Aufstellen (häufig impliziter) Regeln 9

Agentenfunktion / Agentenprogramm (2) Agentenfunktion der Staubsaugerwelt Wahrnehmungsfolge A, sauber A, schmutzig B, sauber B, schmutzig B, schmutzig, B, sauber B, sauber, B, sauber, B, sauber B, sauber, B, sauber, B, schmutzig 100x (B, sauber), B, schmutzig Aktion Rechts Saugen Links Saugen Links Links Saugen Saugen 10

Agentenfunktion / Agentenprogramm (3) Bemerkungen Tabelle unendlich groß, da beliebig lange Wahrnehmungsfolgen! Je nach den gewählten Aktionen muss nicht unbedingt jede Zeile der Tabelle zur Anwendung kommen. einfacher: Agentenprogramm Da Tabelle jede mögl. Wahrnehmungsfolge abdeckt, können im Prinzip beliebig komplexe Agentenfunktionen realisiert werden, die vergangene Wahrnehmungen einbeziehen (Bsp. letzte Zeile) und unter Umständen nicht leicht durch Programm (Regeln) zu erfassen sind. 11

Agentenfunktion / Agentenprogramm (4) Agentenprogramm der Staubsaugerwelt Aktuelle Wahrnehmung A oder B, schmutzig A, sauber B, sauber Aktion Saugen Rechts Links Achtung: Die Tabelle ist ein Agentenprogramm, keine Agentenfunktion! Programm implementiert nur eine sehr einfache Agentenfunktion, die vergangene Wahrnehmungen nicht berücksichtigt. d.h. wenn z.b. alle Felder sauber sind, oszilliert der Sauger zwischen den Feldern 12

Umgebungen (1) Typisierung von Umgebungen Grad der Beobachtbarkeit deterministisch / stochastisch episodisch / sequenziell statisch / dynamisch diskret / kontinuierlich Einzelagent / Multiagenten 13

Umgebungen (2) Grad der Beobachtbarkeit Problem: Was erfassen die Sensoren? Staubsauger: Position des Saugers Zustand des aktuellen / benachbarten Feldes zwei Arten von teilweiser Beobachtbarkeit: Teil der Umgebung ist unzugänglich für Sensoren (z.b. Nachbarfeld) Beobachtung ist ungenau (z.b. Sensor verschmutzt) 14

Umgebungen (3) Deterministisch vs. Stochastisch Deterministisch Zukünftiger Zustand der Umgebung hängt allein vom gegenwärtigen Zustand + den Aktionen ab. Stochastisch Umgebung enthält Zufallselemente, ihre Entwicklung ist daher auch bei vollständiger Beobachtung nicht vorhersagbar. Wahrnehmung in der Praxis: Umgebung ist nicht vollständig beobachtbar und erscheint daher stochastisch. 15

Umgebungen (5) Statisch vs. Dynamisch Statisch Umgebung ändert sich nur durch Aktionen des Agenten. Dynamisch Umgebung ändert sich auch unabhängig von den Aktionen, insbesondere auch wenn der Agent nicht beobachtet! 17

Umgebungen (6) Diskret vs. Kontinuierlich Betrifft: Zeit Wahrnehmungen Aktionen Beispiel: Schach als Spiel: diskrete Zeit, Wahrnehmungen, Aktionen Schachfigur physisch setzen: kontinuierliche Zeit, Wahrnehmungen (z.b. Druck der Figur auf die Finger), Aktionen (Muskeln steuern) Technisch meist diskrete Darstellung kontinuierlicher Vorgänge (z.b. Kamera mit 25 Bildern/s). 18

Umgebungen (7) Einzelagent vs. Multiagenten Unterscheidung: kooperative Multiagenten konkurrierende Agenten Realwelt: häufig Mischungen 19