Lernen von optimalen Strategien

Größe: px
Ab Seite anzeigen:

Download "Lernen von optimalen Strategien"

Transkript

1 Lernen von optimalen Strategien Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

2 Gliederung 1 Q-Learning in der Praxis 2 Q-Learning anhand des Katze-und-Maus-Beispiels Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

3 Wie wird die MDP-Bewertungsfunktion akquiriert? Der Lernalgorithmus probiert alle möglichen Zustände in Kombination mit allen möglichen Aktionen aus. Der Lernalgorithmus ermittelt den reward der ausgeführten Aktion und aktualisiert damit seine Schätzung der Bewertungsfunktion. Das Domänen-Know-How steckt in der reward-funktion. Die Simulation wird so lange durchgeführt, bis die Änderung der Bewertungsfunktion unter eine bestimmte Schwelle sinkt. Der Lernalgorithmus findet eine diskrete Approximation an die tatsächliche Bewertungsfunktion. Das Lernen findet nicht anhand von Beispielen statt, sondern durch Simulieren der Systemreaktion auf einen bestimmten input. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

4 Was kann die greedy-maus? In der Umgebung ohne Hindernisse und Versteckmöglichkeiten schnappt sich die Maus in knapp 50% der Versuche den Käse. Läßt sich dieses oder sogar besseres Verhalten lernen? Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

5 Einfluss der reward-funktion Nach Trainingsläufen liegt die Erfolgsrate der Maus bei 30%. Das ist deutlich schlechter als die greedy-maus. Auch eine Verdopplung und Verdreifachung der Trainingsläufe steigert die Performanz der Maus nicht. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

6 Einfluss der reward-funktion Für die Maus ist bei den aktuellen reward-werten Überleben (100 Strafpunkte) doppelt so wichtig wie der Käse (50 Bonuspunkte). Daher tendiert die Maus dazu, vor der Katze zu fliehen. Weil das Spielfeld offen ist, hat die Katze große Chancen, die Maus zu schnappen, je länger das Spiel dauert. Wird das Überleben (10 Strafpunkte) abgewertet, gewinnt die Maus mehr Spiele! Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

7 Einfluss der reward-funktion Wie bedeutend die reward-werte für die Bewertungsfunktion sind, läßt sich daran erkennen, wenn für das Gefressen-Werden sogar Bonuspunkte vergeben werden. Bei 10 Bonuspunkten für Gefressenwerden und 50 Bonuspunkten für Käse rennt die Maus zur Katze! Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

8 Einfluss des Konvergenzkriteriums Anhand der vielen Simulationsläufe lernt die Maus, die Korridore als Versteck zu nutzen, die Maus geeignet abzupassen und sich an ihr vorbeizuschleichen. Manchmal wird die Maus in einer Ecke geschnappt. Manchmal steuert die Maus zu direkt auf den Käse zu. Manchmal wird die Maus von der Katze einfach überrannt. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

9 Einfluss des Konvergenzkriteriums Nach weiteren Simulationsläufen hat die Maus aus ihren Fehlern gelernt. Sie gewinnt inzwischen fast jedes Spiel. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

10 Einfluss der Zahl an Simulationsläufen Schwierigkeit in dieser Welt: Wenn Katze und Käse in der Falle stecken, wird die Maus oft erwischt. Manchmal blockieren Katze und Maus durch Hin- und Herziehen auf dieselben Felder den Spielfortschritt. Für die Vielzahl der hier möglichen Pfade zum Ziel müssen mehr Trainingsbeispiele ausprobiert werden. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

11 Einfluss der Zahl an Simulationsläufen Schwierigkeit in dieser Welt: Wenn Katze und Käse in der Falle stecken, wird die Maus oft erwischt. Manchmal blockieren Katze und Maus durch Hin- und Herziehen auf dieselben Felder den Spielfortschritt. Für die Vielzahl der hier möglichen Pfade zum Ziel müssen mehr Trainingsbeispiele ausprobiert werden. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

12 Einfluss der Zahl an Simulationsläufen Bei Simulationsläufen erreicht die Maus eine sehr hohe Erfolgsrate. Eine so hohe Anzahl von Beispielen ist in realen Anwendungen selten generierbar. Man bräuchte extrem zuverlässige Schätzungen etwa für das Rauschen der Sensoren und Effektoren, um eine realistische Simulation zu implementieren. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

13 Einfluss der Zahl an Simulationsläufen Darüberhinaus ist ein realistisches Simulationsmodell der Umgebung vonnöten (vgl. VW-Tuareg in der Wüste). Dadurch steigt der Rechenaufwand weiter an. Gerad Tesauro vom IBM Watson Research Center entwickelte ein backgammon-programm, das seine Strategie anhand von Spielen gegen sich selbst lernte. Nach Iterationen konvergierte die Approximation der Bewertungsfunktion. Sind Simulationsläufe nicht möglich (z.b. beim Lernen von Kooperationsstrategien in der Mensch-Maschine-Kooperation), müssen Beispiele (z.b. Mensch-Mensch-Dialoge) mit dem in jedem Schritt erreichten Zustand und der (als optimal angenommenen) ausgeführten Aktion annotiert werden. Aus diesen Daten kann eine Bewertungsfunktion approximiert werden. Aus dem unüberwachten wird überwachtes Lernen. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

14 Grenzen des Q-Learning Erfolgreiche Vorgehensweise bei überschaubarer Größe des Zustandsraums, der Zahl der erlaubten Aktionen und der Zahl der Variablen, im Lösungsraum Genügend viele Simulationsläufe und eine geeignete reward-funktion ermöglichen sehr hohe Erfolgsraten (fast bis 100%!). Die Vergrößerung der entscheidenden Parameter führt zu einem raschen Anstieg des Lernaufwands. Wenn sich nicht genügend Simulationsläufe generieren lassen, bei die Approximation an die ideale Strategie sehr schwach, und die Erfolgsraten dementsprechend niedrig. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14

Planung von Handlungen bei unsicherer Information

Planung von Handlungen bei unsicherer Information Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)

Mehr

Reinforcement Learning

Reinforcement Learning Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

Reinforcement Learning

Reinforcement Learning Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Reinforcement Learning. Volker Tresp

Reinforcement Learning. Volker Tresp Reinforcement Learning Volker Tresp 1 Überwachtes und unüberwachtes Lernen Überwachtes Lernen: Zielgrößen sind im Trainingsdatensatz bekannt; Ziel ist die Verallgemeinerung auf neue Daten Unüberwachtes

Mehr

Übersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Reinforcement learning

Reinforcement learning Reinforcement learning Erfolgsgeschichten... Quelle: twitter.com/ai memes Q-Learning als Art von Reinforcement learning Paul Kahlmeyer February 5, 2019 1 Einführung 2 Q-Learning Begriffe Algorithmus 3

Mehr

Model Checking I. Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg

Model Checking I. Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg Model Checking I Yi Zhao Marc Spisländer Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg Zhao, Spisländer FAU Erlangen-Nürnberg Model Checking I 1 / 22 1 Inhalt 2 Model

Mehr

TD-Gammon. Michael Zilske

TD-Gammon. Michael Zilske TD-Gammon Michael Zilske zilske@inf.fu-berlin.de TD-Gammon Ein Backgammon-Spieler von Gerald Tesauro (Erste Version: 1991) TD-Gammon Ein Neuronales Netz, das immer wieder gegen sich selbst spielt und dadurch

Mehr

Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone

Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone 14.12.2012 Informatik FB 20 Knowlegde Engineering Yasmin Krahofer 1 Inhalt Problemstellung

Mehr

Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation

Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation von Manuel Trittel Informatik HAW Hamburg Vortrag im Rahmen der Veranstaltung AW1 im Masterstudiengang, 02.12.2008 der Anwendung Themeneinordnung

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning Viktor Seifert Seminar: Knowledge Engineering und Lernen in Spielen SS06 Prof. Johannes Fürnkranz Übersicht 1. Definition 2. Allgemeiner Lösungsansatz 3. Temporal Difference Learning

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

TUD Computer Poker Challenge

TUD Computer Poker Challenge TUD Computer Poker Challenge The Challenge of Poker Björn Heidenreich 31. März 2008 The Challenge of Poker Björn Heidenreich 1 Anforderungen an einen guten Poker-Spieler Hand Strength Hand Potential Bluffing

Mehr

Adaptives maschinelles Lernen

Adaptives maschinelles Lernen Vortrag: Adaptives maschinelles Lernen Eric Winter Universität Koblenz-Landau Fachbereich Informatik - Institut für Softwaretechnik Seminar Software-Adaptivität - Sommersemester 2011 ericwinter@uni-koblenz.de

Mehr

Institut für Informatik Lehrstuhl Maschinelles Lernen. Uwe Dick

Institut für Informatik Lehrstuhl Maschinelles Lernen. Uwe Dick Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

Universität Ulm CS5900 Hauptseminar Neuroinformatik Dozenten: Palm, Schwenker, Oubatti

Universität Ulm CS5900 Hauptseminar Neuroinformatik Dozenten: Palm, Schwenker, Oubatti Verfasst von Nenad Marjanovic Betreut von Dr. Friedhelm Schwenker Universität Ulm - CS5900 Hauptseminar Neuroinformatik 1. Einleitung Dieses Arbeit befasst sich mit dem Maschinellen Lernen eines Agenten

Mehr

Kniffel-Agenten. Von Alexander Holtkamp

Kniffel-Agenten. Von Alexander Holtkamp Kniffel-Agenten Von Alexander Holtkamp Übersicht Grundregeln Vorteil der Monte Carlo -Methode Gliederung des Projekts Aufbau State - Action Kodierung von State - Action Optimierung Aussicht Grundregeln

Mehr

Seminar Künstliche Intelligenz Wintersemester 2013/14

Seminar Künstliche Intelligenz Wintersemester 2013/14 Seminar Künstliche Intelligenz Wintersemester 2013/14 Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 31.10.2013 2 / 13 Überblick Teilgebiete der KI Problemlösen,

Mehr

Inhalt. Kognitive Systeme 1. Expansion eines impliziten Suchraums Netz aller möglichen Schritte. Impliziter Suchraum. Uninformierte Suche

Inhalt. Kognitive Systeme 1. Expansion eines impliziten Suchraums Netz aller möglichen Schritte. Impliziter Suchraum. Uninformierte Suche Inhalt Uninformierte Suche Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 04.11.2009 1 Implizite Suchgraphen 2 Tiefensuche 3 Breitensuche 4

Mehr

Kognitive Systeme 1. Uninformierte Suche. Dr.-Ing. Bernd Ludwig

Kognitive Systeme 1. Uninformierte Suche. Dr.-Ing. Bernd Ludwig Kognitive Systeme 1 Uninformierte Suche Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 04.11.2009 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

Entwicklungstrend: Digitalisierung von Gebäuden

Entwicklungstrend: Digitalisierung von Gebäuden Entwicklungstrend: Digitalisierung von Gebäuden Photo: Einstein Center Digital Future/Kay Herschelmann Prof. Dr. Sergio Lucia Einstein Center Digital Future Technische Universität Berlin 1 www.iot.tu-berlin.de

Mehr

ASIM Fachgruppentreffen STS/GMMS

ASIM Fachgruppentreffen STS/GMMS ASIM Fachgruppentreffen STS/GMMS Modellbasiert lernende Steuerung für Gelenkarmroboter FG Computational Engineering and Automation Georg Kunert, M.Eng. georg.kunert@cea-wismar.de Prof. Dr.-Ing. Thorsten

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Uwe Dick

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Uwe Dick Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

Software Engineering in der Praxis

Software Engineering in der Praxis Software Engineering in der Praxis Praktische Übungen Pinte, Spisländer FAU Erlangen-Nürnberg Strukturelles Testen 1 / 11 Strukturelles Testen Florin Pinte Marc Spisländer Lehrstuhl für Software Engineering

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Psychische Störungen bei jungen Erwachsenen in Schleswig-Holstein

Psychische Störungen bei jungen Erwachsenen in Schleswig-Holstein Psychische Störungen bei jungen Erwachsenen in Schleswig-Holstein 26.06.2018 Seite 1 Psychische Störungen bei jungen Erwachsenen Psychische Störungen bei jungen Erwachsenen Junge Erwachsene vergleichsweise

Mehr

Learning to Optimize Mobile Robot Navigation Based on HTN Plans

Learning to Optimize Mobile Robot Navigation Based on HTN Plans Learning to Optimize Mobile Robot Navigation Based on HTN Plans lernen Betreuer: Freek Stulp Hauptseminar Intelligente Autonome Systeme (WiSe 2004/05) Forschungs- und Lehreinheit Informatik IX 8. Dezember

Mehr

Backgammon. Tobias Krönke. Technische Universität Darmstadt Fachbereich Informatik Fachgebiet Knowledge Engineering

Backgammon. Tobias Krönke. Technische Universität Darmstadt Fachbereich Informatik Fachgebiet Knowledge Engineering Technische Universität Darmstadt Fachbereich Informatik Fachgebiet Knowledge Engineering Seminar zu Knowledge Engineering und Lernen in Spielen, 2010 Gliederung Gliederung Startaufstellung Abbildung: GNU

Mehr

Monte Carlo Methoden

Monte Carlo Methoden Monte Carlo Methoden Lernverfahren zur Berechnung von Wertefunktionen und Policies werden vorgestellt. Vollständige Kenntnis der Dynamik wird nicht vorausgesetzt (im Gegensatz zu den Verfahren der DP).

Mehr

Sprachdialogsysteme Arbeitsblatt inge - ines Grammatik Editor

Sprachdialogsysteme Arbeitsblatt inge - ines Grammatik Editor Aufgabe 1) Ausprobieren eines Sprachdialoges mit natürlich gesprochener Sprache Starte ines und öffne die Datei flugbuchung.ines. Sie befindet sich im Verzeichnis C:\Programme\inES\Aufgaben\inGE\Deutsch.

Mehr

Was können Roboter uns übers Lernen sagen. Dr. Armin Duff Leiter Didaktik, Technorama

Was können Roboter uns übers Lernen sagen. Dr. Armin Duff Leiter Didaktik, Technorama Was können Roboter uns übers Lernen sagen Dr. Armin Duff Leiter Didaktik, Technorama Die Roboter sind da! Roboter in der Industrie 1970 Deep Blue versus Garry Kasparov 1997 Flash Crash 1 Trillion $ 2010

Mehr

Digitalisierung und Künstliche Intelligenz

Digitalisierung und Künstliche Intelligenz Digitalisierung und Künstliche Intelligenz Implikationen auf die Arbeits- und Lebenswelt 4. Mai 2018 Matthias Haun Handschlag zum Auftakt der Hannover Messe 2018 Center for Cognitive Cybernetic vertraulich

Mehr

Software Engineering in der Praxis

Software Engineering in der Praxis Software Engineering in der Praxis Praktische Übungen Marc Spisländer Josef Adersberger Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg 10. November 2008 Inhalt Nachlese

Mehr

Modellgestützte Analyse und Optimierung Übungsblatt 8

Modellgestützte Analyse und Optimierung Übungsblatt 8 Fakultät für Informatik Lehrstuhl 4 Peter Buchholz, Jan Kriege Sommersemester 2015 Modellgestützte Analyse und Optimierung Übungsblatt 8 Ausgabe: 25.05.2015, Abgabe: 01.06.2015 (12 Uhr) Aufgabe 8.1: Berechnung

Mehr

Übungen zu Rechnerkommunikation Wintersemester 2010/2011 Übung 7

Übungen zu Rechnerkommunikation Wintersemester 2010/2011 Übung 7 Übungen zu Rechnerkommunikation Wintersemester 00/0 Übung 7 Mykola Protsenko, Jürgen Eckert PD. Dr.-Ing. Falko Dressler Friedrich-Alexander d Universität Erlangen-Nürnberg Informatik 7 (Rechnernetze und

Mehr

AI in Computer Games. Übersicht. Motivation. Vorteile der Spielumgebung. Techniken. Anforderungen

AI in Computer Games. Übersicht. Motivation. Vorteile der Spielumgebung. Techniken. Anforderungen Übersicht AI in Computer Games Motivation Vorteile der Spielumgebung Techniken Anwendungen Zusammenfassung Motivation Vorteile der Spielumgebung Modellierung glaubwürdiger Agenten Implementierung menschlicher

Mehr

Reinforcement Learning 2

Reinforcement Learning 2 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning 2 Uwe Dick Inhalt Erinnerung: Bellman-Gleichungen, Bellman-Operatoren Policy Iteration Sehr große oder kontinuierliche

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning Valentin Hermann 25. Juli 2014 Inhaltsverzeichnis 1 Einführung 3 2 Wie funktioniert Reinforcement Learning? 3 2.1 Das Modell................................... 3 2.2 Exploration

Mehr

MoGo Seminar Knowledge Engineering und Lernern in Spielen Sommersemester 2010

MoGo Seminar Knowledge Engineering und Lernern in Spielen Sommersemester 2010 MoGo Seminar Knowledge Engineering und Lernern in Spielen Sommersemester 2010 08.06.2010 Fachbereich 20 Knowledge Engineering Group Christian Brinker 1 Inhalt Go Probleme für KIs Monte-Carlo-Suche UCT-Suchalgorithmus

Mehr

Verbesserung der Abläufe in der Notaufnahme. mit Hilfe von Simulationsmodellen

Verbesserung der Abläufe in der Notaufnahme. mit Hilfe von Simulationsmodellen Verbesserung der Abläufe in der Notaufnahme mit Hilfe von Simulationsmodellen GQMG Jahrestagung 2003, Wiesbaden, Institut für Angewandte Simulation, München Die Rahmenbedingungen.....sind bekannt hier

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Programmierung einer KI. SoPra 2017 Jenny Hotzkow

Programmierung einer KI. SoPra 2017 Jenny Hotzkow Programmierung einer KI SoPra 2017 Jenny Hotzkow Model View Controller Client KI Integration in die Softwarearchitektur (1) KI Integration in die Softwarearchitektur (2) Command-Pattern // Bestimmung möglicher

Mehr

Ubung 1 - Intelligente Agenten und Umgebungen. Aufgabe 1 - Begrie

Ubung 1 - Intelligente Agenten und Umgebungen. Aufgabe 1 - Begrie Theoretischer Teil Aufgabe 1 - Begrie - Intelligente Agenten und Umgebungen { Denieren Sie in eigenen Worten: \Intelligenz", \Kunstliche Intelligenz", \Rationalitat", \Agent", \Agentenfunktion", \Agentenprogramm"

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Software Engineering in der Praxis

Software Engineering in der Praxis Software Engineering in der Praxis Matthias Meitner Marc Spisländer Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg Meitner, Spisländer FAU Erlangen-Nürnberg Software

Mehr

Sozialwissenschaftliche Modelle und Daten SoSe 2010

Sozialwissenschaftliche Modelle und Daten SoSe 2010 Sozialwissenschaftliche Modelle und Daten SoSe 2010 LS Sozialwissenschaftliche Methodenlehre und Sozialstatistik C. Dudel C. Dudel Sozialwissenschaftliche Modelle und Daten SoSe 2010 1 23 1 Formalia 2

Mehr

Künstliche Intelligenz ist der nächste Schritt im Rahmen der Digitalen Transformation

Künstliche Intelligenz ist der nächste Schritt im Rahmen der Digitalen Transformation Künstliche Intelligenz ist der nächste Schritt im Rahmen der Digitalen Transformation Dipl.-Wirtsch.-Ing Ralph Appel, Direktor des VDI Verein Deutscher Ingenieure e.v. Statement zur VDI-Pressekonferenz

Mehr

Maschinelles Lernen SS 2005

Maschinelles Lernen SS 2005 1 Maschinelles Lernen SS 2005 Jianwei Zhang AB TAMS FB Informatik Universität Hamburg Büro: F308 Tel.: 2430 E-mail: zhang Web: http://tams-www.informatik.uni-hamburg.de/ Sprechstunde: Do. 15:00-16:00 2

Mehr

Kollaborative Roboter Systeme zur flexiblen Automatisierung

Kollaborative Roboter Systeme zur flexiblen Automatisierung Prof. Dr.-Ing. Jörg Franke Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik Kollaborative Roboter Systeme zur flexiblen Automatisierung Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr

Automatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens

Automatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens Automatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens Universität zu Köln Philosophisches Institut Seminar: Künstliche Intelligenz II Leitung: Stephan Schwiebert,

Mehr

Intelligente, Universelle Agenten. Michael Thielscher. Institut Künstliche Intelligenz

Intelligente, Universelle Agenten. Michael Thielscher. Institut Künstliche Intelligenz Intelligente, Universelle Agenten Michael Thielscher Institut Künstliche Intelligenz Intelligente Agenten Ein Agent nimmt seine Umgebung wahr (mittels Sensoren) agiert in seiner Umgebung (mittels Effektoren)

Mehr

Beweise aus dem Fach Grundzüge der Künstlichen Intelligenz

Beweise aus dem Fach Grundzüge der Künstlichen Intelligenz Beweise aus dem Fach Grundzüge der Künstlichen Intelligenz Alexander Pacha TU Wien - Matr. Nr.: 0828440 alexander.pacha@tuwien.ac.at 1 Begriserklärungen Für die folgenden Beweise werden zuerst folgende

Mehr

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie. Praktikum Algorithmik Prof. Dr. Heiner Klocke Winter 2011/2012 12.11.2011 1. Erläuterung des Umfeldes Projekt kd- Trees Bei der Bildanalyse sollen Farbpunkte eines Bildes klassifiziert werden. Die Farbe

Mehr

Organic Computing in Mobilen Arbeitsmaschinen

Organic Computing in Mobilen Arbeitsmaschinen Organic Computing in Mobilen Arbeitsmaschinen H. Schmeck, S. Mostaghim, M. Wünsche 1) M. Geimer, T. Kautzmann 2) Institut für Angewandte Informatik und Formale Beschreibungsverfahren (), Lehrstuhl für

Mehr

Neuro-Soft GmbH. Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH

Neuro-Soft GmbH. Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH Neuro-Soft GmbH Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH Neuro-Soft GmbH LRC-AI, Wo steht die Entwicklung der künstlichen Intelligenz heute? Cognitive

Mehr

VHDL Objekte und Typen

VHDL Objekte und Typen VHDL Objekte und Typen Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2009/2010 VHDL Objekte und Typen 1/27 2009-07-31 Inhalt

Mehr

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING Andreas Nadolski Softwareentwickler andreas.nadolski@enpit.de Twitter: @enpit Blogs: enpit.de/blog medium.com/enpit-developer-blog 05.10.2018, DOAG Big Data

Mehr

Programm Katze und Maus von Julia Gräml, 7. Klasse

Programm Katze und Maus von Julia Gräml, 7. Klasse Programm Katze und Maus von Julia Gräml, 7. Klasse käse:dreieck käseloch1:kreis käseloch2:kreis käseloch3:kreis mauskörper:ellipse mauskopf:kreis mausbein1:ellipse mausbein2:ellipse mausmund:ellipse mausauge1:kreis

Mehr

Improving the Accuracy of GPS

Improving the Accuracy of GPS Improving the Accuracy of GPS Stephan Kopf, Thomas King, Wolfgang Effelsberg Lehrstuhl für Praktische Informatik IV Universität Mannheim Gliederung Motivation ierungsfehler von GPS Steigerung der Genauigkeit

Mehr

Reinforcement Learning 2

Reinforcement Learning 2 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning 2 Uwe Dick Inhalt Erinnerung: Bellman-Gleichungen, Bellman-Operatoren Policy Iteration Sehr große oder kontinuierliche

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 4. Einführung: Umgebungen und Problemlösungsverfahren Malte Helmert Universität Basel 2. März 2015 Einführung: Überblick Kapitelüberblick Einführung: 1. Was ist Künstliche

Mehr

Seminar Künstliche Intelligenz Wintersemester 2014/15

Seminar Künstliche Intelligenz Wintersemester 2014/15 Seminar Wintersemester 2014/15 Martin Hacker Richard Schaller Department Informatik FAU Erlangen-Nürnberg 8.10.2014 Vorstellung Über die Dozenten Institution Lehrstuhl für 2 / 7 2 / 7 KISEM WS 2014/15

Mehr

Regelung einer Luft-Temperatur-Regelstrecke

Regelung einer Luft-Temperatur-Regelstrecke Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Fachgebiet Regelungssysteme Leitung: Prof. Dr.-Ing. Jörg Raisch Praktikum Grundlagen der Regelungstechnik Regelung einer Luft-Temperatur-Regelstrecke

Mehr

Aufgabenblatt 9. Die Abgabe muss bis Sonntag, 21. Juni 2009, 24 Uhr, erfolgen. Verspätet eingereichte Lösungen werden nicht berücksichtigt.

Aufgabenblatt 9. Die Abgabe muss bis Sonntag, 21. Juni 2009, 24 Uhr, erfolgen. Verspätet eingereichte Lösungen werden nicht berücksichtigt. Fachbereich Informatik Prof. Dr. Peter Becker Programmiersprache Java Objektorientierte Programmierung II Sommersemester 2009 8. Juni 2009 Aufgabenblatt 9 Vorbemerkungen Mit diesem Aufgabenblatt können

Mehr

Hindernisumfahrung eines autonomen Roboters in einer unbekannten statischen Umgebung. Ronny Menzel

Hindernisumfahrung eines autonomen Roboters in einer unbekannten statischen Umgebung. Ronny Menzel Hindernisumfahrung eines autonomen Roboters in einer unbekannten statischen Umgebung. Ronny Menzel Inhalt Aufgabenstellung Begriffserklärung Hindernisumfahrungsstrategien Anforderungen an die Hindernisumfahrung

Mehr

SWARM. 1 MW Primärregelleistung mittels vernetzten Batteriespeichersystmen in Haushalten

SWARM. 1 MW Primärregelleistung mittels vernetzten Batteriespeichersystmen in Haushalten SWARM 1 MW Primärregelleistung mittels vernetzten Batteriespeichersystmen in Haushalten Strommarkttreffen Ergebnisse aus dem Modellprojekt SWARM Berlin 02. September 2016 David Steber Computer Science

Mehr

Semiüberwachte Paarweise Klassifikation

Semiüberwachte Paarweise Klassifikation Semiüberwachte Paarweise Klassifikation Andriy Nadolskyy Bachelor-Thesis Betreuer: Prof. Dr. Johannes Fürnkranz Dr. Eneldo Loza Mencía 1 Überblick Motivation Grundbegriffe Einleitung Übersicht der Verfahren

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Windatlas Österreich René Cattin, Hans Winkelmeier

Windatlas Österreich René Cattin, Hans Winkelmeier Windatlas Österreich René Cattin, Hans Winkelmeier Inhalt Präsentation des Windatlas Genauigkeit des Windatlas Der Weg zum Windatlas Erkenntnisse Stärken und Schwächen des Windatlas Schlussfolgerungen

Mehr

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Visuelle Bildsuche und Bildnavigation. Prof. Dr. Kai Uwe Barthel

Visuelle Bildsuche und Bildnavigation. Prof. Dr. Kai Uwe Barthel Visuelle Bildsuche und Bildnavigation Prof. Dr. Kai Uwe Barthel Übersicht Probleme der Bildsuche Textbasierte Bildsuche Visuelle (Low-Level-)Bildsuche Fusion der Suchprinzipien Automatisches Bildverstehen

Mehr

Blockchain-Studie: Wo steht die deutsche Wirtschaft? Benjamin Matten, NTT DATA Deutschland Dr. Axel Pols, Bitkom Research

Blockchain-Studie: Wo steht die deutsche Wirtschaft? Benjamin Matten, NTT DATA Deutschland Dr. Axel Pols, Bitkom Research Blockchain-Studie: Wo steht die deutsche Wirtschaft? Benjamin Matten, NTT DATA Deutschland Dr. Axel Pols, Bitkom Research Blockchain Business Summit Nürnberg, 3. Dezember 2018 2 Bitkom Blockchain Studie

Mehr

Zustandsbewertung gasisolierter Hochspannungsschaltanlagen

Zustandsbewertung gasisolierter Hochspannungsschaltanlagen Zustandsbewertung gasisolierter Hochspannungsschaltanlagen innogy SE Sparte Netz & Infrastruktur Bereich Netzservice UNSERE LEISTUNGEN IHR ERFOLG Als Spezialist für technische Dienstleistungen und langjähriger

Mehr

Die neue Freiheit des Lernens: Digital. Weltweit. Zertifiziert. siemens.de/sitrain-remote-learning

Die neue Freiheit des Lernens: Digital. Weltweit. Zertifiziert. siemens.de/sitrain-remote-learning Remote Learning@SITRAIN Die neue Freiheit des Lernens: Digital. Weltweit. Zertifiziert. siemens.de/sitrain-remote-learning Remote Learning@SITRAIN Expertenwissen für jeden per Fernzugriff Die Industrie

Mehr

STRATEGISCHES MANAGEMENT. Informationen zum Schwerpunktfach

STRATEGISCHES MANAGEMENT. Informationen zum Schwerpunktfach STRATEGISCHES MANAGEMENT Informationen zum Schwerpunktfach WARUM SIND UNTERNEHMEN ERFOLGREICH? STRATEGISCHE FRAGESTELLUNGEN Wie können Strategen in einer dynamischen und komplexen Umwelt neue Strategien

Mehr

- Soccer Simulation - Dietmar Lammers / Hochschultag. Institut für Informatik Universität Münster. Agenten und Roboter.

- Soccer Simulation - Dietmar Lammers / Hochschultag. Institut für Informatik Universität Münster. Agenten und Roboter. Agenten Agenten und - Soccer Simulation - Institut für Informatik Universität Münster 2008-11-06 / Hochschultag Gliederung Agenten 1 Agenten 2 3 4 2006 2007 5 Agenten - Agenten Autonom agierende Programme

Mehr

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2) Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen

Mehr

V π (s) ist der Erwartungswert, der bei Start in s und Arbeit gemäß π insgesamt erreicht wird:

V π (s) ist der Erwartungswert, der bei Start in s und Arbeit gemäß π insgesamt erreicht wird: Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2007 Verstärkungs-Lernen (Reinforcement Learning) Literatur: R.S.Sutton, A.G.Barto Reinforcement

Mehr

Local Search Algorithmen 1

Local Search Algorithmen 1 Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:

Mehr

Erste Schritte um Schach zu lernen

Erste Schritte um Schach zu lernen Erste Schritte um Schach zu lernen Erstellt durch wikihow Übersetzungen: Schach ist ein sehr beliebtes Spiel und weithin als eines der ältesten noch gespielten Spiele anerkannt. Obwohl die Regeln von Schach

Mehr

DIGITALES 1:1 MENTORING FÜR MENSCHEN MIT BEHINDERUNG. eability. ein Projekt von:

DIGITALES 1:1 MENTORING FÜR MENSCHEN MIT BEHINDERUNG. eability.   ein Projekt von: DIGITALES 1:1 MENTORING FÜR MENSCHEN MIT BEHINDERUNG eability ein Projekt von: UNSER KONZEPT 1:1 Online Mentoring in der Bewerbungsphase für Menschen mit Behinderungen und Unternehmen Unsere Vision Wir

Mehr

Muss Europa grün werden, um im internationalen Wettbewerb zu bestehen?

Muss Europa grün werden, um im internationalen Wettbewerb zu bestehen? EUREL Muss Europa grün werden, um im internationalen Wettbewerb zu bestehen? Prof. Dr.- Ing. Wolfgang Schröppel 1 Inhalt 1. Einleitung 2. Die Energieressourcen Europas 3. Die europäische Abhängigkeit von

Mehr