Lernen von optimalen Strategien
|
|
- Irma Rosenberg
- vor 5 Jahren
- Abrufe
Transkript
1 Lernen von optimalen Strategien Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
2 Gliederung 1 Q-Learning in der Praxis 2 Q-Learning anhand des Katze-und-Maus-Beispiels Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
3 Wie wird die MDP-Bewertungsfunktion akquiriert? Der Lernalgorithmus probiert alle möglichen Zustände in Kombination mit allen möglichen Aktionen aus. Der Lernalgorithmus ermittelt den reward der ausgeführten Aktion und aktualisiert damit seine Schätzung der Bewertungsfunktion. Das Domänen-Know-How steckt in der reward-funktion. Die Simulation wird so lange durchgeführt, bis die Änderung der Bewertungsfunktion unter eine bestimmte Schwelle sinkt. Der Lernalgorithmus findet eine diskrete Approximation an die tatsächliche Bewertungsfunktion. Das Lernen findet nicht anhand von Beispielen statt, sondern durch Simulieren der Systemreaktion auf einen bestimmten input. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
4 Was kann die greedy-maus? In der Umgebung ohne Hindernisse und Versteckmöglichkeiten schnappt sich die Maus in knapp 50% der Versuche den Käse. Läßt sich dieses oder sogar besseres Verhalten lernen? Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
5 Einfluss der reward-funktion Nach Trainingsläufen liegt die Erfolgsrate der Maus bei 30%. Das ist deutlich schlechter als die greedy-maus. Auch eine Verdopplung und Verdreifachung der Trainingsläufe steigert die Performanz der Maus nicht. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
6 Einfluss der reward-funktion Für die Maus ist bei den aktuellen reward-werten Überleben (100 Strafpunkte) doppelt so wichtig wie der Käse (50 Bonuspunkte). Daher tendiert die Maus dazu, vor der Katze zu fliehen. Weil das Spielfeld offen ist, hat die Katze große Chancen, die Maus zu schnappen, je länger das Spiel dauert. Wird das Überleben (10 Strafpunkte) abgewertet, gewinnt die Maus mehr Spiele! Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
7 Einfluss der reward-funktion Wie bedeutend die reward-werte für die Bewertungsfunktion sind, läßt sich daran erkennen, wenn für das Gefressen-Werden sogar Bonuspunkte vergeben werden. Bei 10 Bonuspunkten für Gefressenwerden und 50 Bonuspunkten für Käse rennt die Maus zur Katze! Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
8 Einfluss des Konvergenzkriteriums Anhand der vielen Simulationsläufe lernt die Maus, die Korridore als Versteck zu nutzen, die Maus geeignet abzupassen und sich an ihr vorbeizuschleichen. Manchmal wird die Maus in einer Ecke geschnappt. Manchmal steuert die Maus zu direkt auf den Käse zu. Manchmal wird die Maus von der Katze einfach überrannt. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
9 Einfluss des Konvergenzkriteriums Nach weiteren Simulationsläufen hat die Maus aus ihren Fehlern gelernt. Sie gewinnt inzwischen fast jedes Spiel. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
10 Einfluss der Zahl an Simulationsläufen Schwierigkeit in dieser Welt: Wenn Katze und Käse in der Falle stecken, wird die Maus oft erwischt. Manchmal blockieren Katze und Maus durch Hin- und Herziehen auf dieselben Felder den Spielfortschritt. Für die Vielzahl der hier möglichen Pfade zum Ziel müssen mehr Trainingsbeispiele ausprobiert werden. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
11 Einfluss der Zahl an Simulationsläufen Schwierigkeit in dieser Welt: Wenn Katze und Käse in der Falle stecken, wird die Maus oft erwischt. Manchmal blockieren Katze und Maus durch Hin- und Herziehen auf dieselben Felder den Spielfortschritt. Für die Vielzahl der hier möglichen Pfade zum Ziel müssen mehr Trainingsbeispiele ausprobiert werden. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
12 Einfluss der Zahl an Simulationsläufen Bei Simulationsläufen erreicht die Maus eine sehr hohe Erfolgsrate. Eine so hohe Anzahl von Beispielen ist in realen Anwendungen selten generierbar. Man bräuchte extrem zuverlässige Schätzungen etwa für das Rauschen der Sensoren und Effektoren, um eine realistische Simulation zu implementieren. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
13 Einfluss der Zahl an Simulationsläufen Darüberhinaus ist ein realistisches Simulationsmodell der Umgebung vonnöten (vgl. VW-Tuareg in der Wüste). Dadurch steigt der Rechenaufwand weiter an. Gerad Tesauro vom IBM Watson Research Center entwickelte ein backgammon-programm, das seine Strategie anhand von Spielen gegen sich selbst lernte. Nach Iterationen konvergierte die Approximation der Bewertungsfunktion. Sind Simulationsläufe nicht möglich (z.b. beim Lernen von Kooperationsstrategien in der Mensch-Maschine-Kooperation), müssen Beispiele (z.b. Mensch-Mensch-Dialoge) mit dem in jedem Schritt erreichten Zustand und der (als optimal angenommenen) ausgeführten Aktion annotiert werden. Aus diesen Daten kann eine Bewertungsfunktion approximiert werden. Aus dem unüberwachten wird überwachtes Lernen. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
14 Grenzen des Q-Learning Erfolgreiche Vorgehensweise bei überschaubarer Größe des Zustandsraums, der Zahl der erlaubten Aktionen und der Zahl der Variablen, im Lösungsraum Genügend viele Simulationsläufe und eine geeignete reward-funktion ermöglichen sehr hohe Erfolgsraten (fast bis 100%!). Die Vergrößerung der entscheidenden Parameter führt zu einem raschen Anstieg des Lernaufwands. Wenn sich nicht genügend Simulationsläufe generieren lassen, bei die Approximation an die ideale Strategie sehr schwach, und die Erfolgsraten dementsprechend niedrig. Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning / 14
Planung von Handlungen bei unsicherer Information
Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)
MehrReinforcement Learning
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrReinforcement Learning
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
Mehr8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
MehrReinforcement Learning. Volker Tresp
Reinforcement Learning Volker Tresp 1 Überwachtes und unüberwachtes Lernen Überwachtes Lernen: Zielgrößen sind im Trainingsdatensatz bekannt; Ziel ist die Verallgemeinerung auf neue Daten Unüberwachtes
MehrÜbersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrReinforcement learning
Reinforcement learning Erfolgsgeschichten... Quelle: twitter.com/ai memes Q-Learning als Art von Reinforcement learning Paul Kahlmeyer February 5, 2019 1 Einführung 2 Q-Learning Begriffe Algorithmus 3
MehrModel Checking I. Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg
Model Checking I Yi Zhao Marc Spisländer Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg Zhao, Spisländer FAU Erlangen-Nürnberg Model Checking I 1 / 22 1 Inhalt 2 Model
MehrTD-Gammon. Michael Zilske
TD-Gammon Michael Zilske zilske@inf.fu-berlin.de TD-Gammon Ein Backgammon-Spieler von Gerald Tesauro (Erste Version: 1991) TD-Gammon Ein Neuronales Netz, das immer wieder gegen sich selbst spielt und dadurch
MehrCombining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone
Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone 14.12.2012 Informatik FB 20 Knowlegde Engineering Yasmin Krahofer 1 Inhalt Problemstellung
MehrEinsatz von Reinforcement Learning in der Modellfahrzeugnavigation
Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation von Manuel Trittel Informatik HAW Hamburg Vortrag im Rahmen der Veranstaltung AW1 im Masterstudiengang, 02.12.2008 der Anwendung Themeneinordnung
MehrReinforcement Learning
Reinforcement Learning Viktor Seifert Seminar: Knowledge Engineering und Lernen in Spielen SS06 Prof. Johannes Fürnkranz Übersicht 1. Definition 2. Allgemeiner Lösungsansatz 3. Temporal Difference Learning
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrTUD Computer Poker Challenge
TUD Computer Poker Challenge The Challenge of Poker Björn Heidenreich 31. März 2008 The Challenge of Poker Björn Heidenreich 1 Anforderungen an einen guten Poker-Spieler Hand Strength Hand Potential Bluffing
MehrAdaptives maschinelles Lernen
Vortrag: Adaptives maschinelles Lernen Eric Winter Universität Koblenz-Landau Fachbereich Informatik - Institut für Softwaretechnik Seminar Software-Adaptivität - Sommersemester 2011 ericwinter@uni-koblenz.de
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Uwe Dick
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrÜbersicht. 20. Verstärkungslernen
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes
MehrUniversität Ulm CS5900 Hauptseminar Neuroinformatik Dozenten: Palm, Schwenker, Oubatti
Verfasst von Nenad Marjanovic Betreut von Dr. Friedhelm Schwenker Universität Ulm - CS5900 Hauptseminar Neuroinformatik 1. Einleitung Dieses Arbeit befasst sich mit dem Maschinellen Lernen eines Agenten
MehrKniffel-Agenten. Von Alexander Holtkamp
Kniffel-Agenten Von Alexander Holtkamp Übersicht Grundregeln Vorteil der Monte Carlo -Methode Gliederung des Projekts Aufbau State - Action Kodierung von State - Action Optimierung Aussicht Grundregeln
MehrSeminar Künstliche Intelligenz Wintersemester 2013/14
Seminar Künstliche Intelligenz Wintersemester 2013/14 Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 31.10.2013 2 / 13 Überblick Teilgebiete der KI Problemlösen,
MehrInhalt. Kognitive Systeme 1. Expansion eines impliziten Suchraums Netz aller möglichen Schritte. Impliziter Suchraum. Uninformierte Suche
Inhalt Uninformierte Suche Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 04.11.2009 1 Implizite Suchgraphen 2 Tiefensuche 3 Breitensuche 4
MehrKognitive Systeme 1. Uninformierte Suche. Dr.-Ing. Bernd Ludwig
Kognitive Systeme 1 Uninformierte Suche Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 04.11.2009 Dr.-Ing. Bernd Ludwig (Lehrstuhl KI) Kognitive
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
MehrRL und Funktionsapproximation
RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht
MehrEntwicklungstrend: Digitalisierung von Gebäuden
Entwicklungstrend: Digitalisierung von Gebäuden Photo: Einstein Center Digital Future/Kay Herschelmann Prof. Dr. Sergio Lucia Einstein Center Digital Future Technische Universität Berlin 1 www.iot.tu-berlin.de
MehrASIM Fachgruppentreffen STS/GMMS
ASIM Fachgruppentreffen STS/GMMS Modellbasiert lernende Steuerung für Gelenkarmroboter FG Computational Engineering and Automation Georg Kunert, M.Eng. georg.kunert@cea-wismar.de Prof. Dr.-Ing. Thorsten
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Uwe Dick
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrSoftware Engineering in der Praxis
Software Engineering in der Praxis Praktische Übungen Pinte, Spisländer FAU Erlangen-Nürnberg Strukturelles Testen 1 / 11 Strukturelles Testen Florin Pinte Marc Spisländer Lehrstuhl für Software Engineering
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
MehrPsychische Störungen bei jungen Erwachsenen in Schleswig-Holstein
Psychische Störungen bei jungen Erwachsenen in Schleswig-Holstein 26.06.2018 Seite 1 Psychische Störungen bei jungen Erwachsenen Psychische Störungen bei jungen Erwachsenen Junge Erwachsene vergleichsweise
MehrLearning to Optimize Mobile Robot Navigation Based on HTN Plans
Learning to Optimize Mobile Robot Navigation Based on HTN Plans lernen Betreuer: Freek Stulp Hauptseminar Intelligente Autonome Systeme (WiSe 2004/05) Forschungs- und Lehreinheit Informatik IX 8. Dezember
MehrBackgammon. Tobias Krönke. Technische Universität Darmstadt Fachbereich Informatik Fachgebiet Knowledge Engineering
Technische Universität Darmstadt Fachbereich Informatik Fachgebiet Knowledge Engineering Seminar zu Knowledge Engineering und Lernen in Spielen, 2010 Gliederung Gliederung Startaufstellung Abbildung: GNU
MehrMonte Carlo Methoden
Monte Carlo Methoden Lernverfahren zur Berechnung von Wertefunktionen und Policies werden vorgestellt. Vollständige Kenntnis der Dynamik wird nicht vorausgesetzt (im Gegensatz zu den Verfahren der DP).
MehrSprachdialogsysteme Arbeitsblatt inge - ines Grammatik Editor
Aufgabe 1) Ausprobieren eines Sprachdialoges mit natürlich gesprochener Sprache Starte ines und öffne die Datei flugbuchung.ines. Sie befindet sich im Verzeichnis C:\Programme\inES\Aufgaben\inGE\Deutsch.
MehrWas können Roboter uns übers Lernen sagen. Dr. Armin Duff Leiter Didaktik, Technorama
Was können Roboter uns übers Lernen sagen Dr. Armin Duff Leiter Didaktik, Technorama Die Roboter sind da! Roboter in der Industrie 1970 Deep Blue versus Garry Kasparov 1997 Flash Crash 1 Trillion $ 2010
MehrDigitalisierung und Künstliche Intelligenz
Digitalisierung und Künstliche Intelligenz Implikationen auf die Arbeits- und Lebenswelt 4. Mai 2018 Matthias Haun Handschlag zum Auftakt der Hannover Messe 2018 Center for Cognitive Cybernetic vertraulich
MehrSoftware Engineering in der Praxis
Software Engineering in der Praxis Praktische Übungen Marc Spisländer Josef Adersberger Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg 10. November 2008 Inhalt Nachlese
MehrModellgestützte Analyse und Optimierung Übungsblatt 8
Fakultät für Informatik Lehrstuhl 4 Peter Buchholz, Jan Kriege Sommersemester 2015 Modellgestützte Analyse und Optimierung Übungsblatt 8 Ausgabe: 25.05.2015, Abgabe: 01.06.2015 (12 Uhr) Aufgabe 8.1: Berechnung
MehrÜbungen zu Rechnerkommunikation Wintersemester 2010/2011 Übung 7
Übungen zu Rechnerkommunikation Wintersemester 00/0 Übung 7 Mykola Protsenko, Jürgen Eckert PD. Dr.-Ing. Falko Dressler Friedrich-Alexander d Universität Erlangen-Nürnberg Informatik 7 (Rechnernetze und
MehrAI in Computer Games. Übersicht. Motivation. Vorteile der Spielumgebung. Techniken. Anforderungen
Übersicht AI in Computer Games Motivation Vorteile der Spielumgebung Techniken Anwendungen Zusammenfassung Motivation Vorteile der Spielumgebung Modellierung glaubwürdiger Agenten Implementierung menschlicher
MehrReinforcement Learning 2
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning 2 Uwe Dick Inhalt Erinnerung: Bellman-Gleichungen, Bellman-Operatoren Policy Iteration Sehr große oder kontinuierliche
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrReinforcement Learning
Reinforcement Learning Valentin Hermann 25. Juli 2014 Inhaltsverzeichnis 1 Einführung 3 2 Wie funktioniert Reinforcement Learning? 3 2.1 Das Modell................................... 3 2.2 Exploration
MehrMoGo Seminar Knowledge Engineering und Lernern in Spielen Sommersemester 2010
MoGo Seminar Knowledge Engineering und Lernern in Spielen Sommersemester 2010 08.06.2010 Fachbereich 20 Knowledge Engineering Group Christian Brinker 1 Inhalt Go Probleme für KIs Monte-Carlo-Suche UCT-Suchalgorithmus
MehrVerbesserung der Abläufe in der Notaufnahme. mit Hilfe von Simulationsmodellen
Verbesserung der Abläufe in der Notaufnahme mit Hilfe von Simulationsmodellen GQMG Jahrestagung 2003, Wiesbaden, Institut für Angewandte Simulation, München Die Rahmenbedingungen.....sind bekannt hier
MehrKlassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
MehrProgrammierung einer KI. SoPra 2017 Jenny Hotzkow
Programmierung einer KI SoPra 2017 Jenny Hotzkow Model View Controller Client KI Integration in die Softwarearchitektur (1) KI Integration in die Softwarearchitektur (2) Command-Pattern // Bestimmung möglicher
MehrUbung 1 - Intelligente Agenten und Umgebungen. Aufgabe 1 - Begrie
Theoretischer Teil Aufgabe 1 - Begrie - Intelligente Agenten und Umgebungen { Denieren Sie in eigenen Worten: \Intelligenz", \Kunstliche Intelligenz", \Rationalitat", \Agent", \Agentenfunktion", \Agentenprogramm"
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrSoftware Engineering in der Praxis
Software Engineering in der Praxis Matthias Meitner Marc Spisländer Lehrstuhl für Software Engineering Friedrich-Alexander-Universität Erlangen-Nürnberg Meitner, Spisländer FAU Erlangen-Nürnberg Software
MehrSozialwissenschaftliche Modelle und Daten SoSe 2010
Sozialwissenschaftliche Modelle und Daten SoSe 2010 LS Sozialwissenschaftliche Methodenlehre und Sozialstatistik C. Dudel C. Dudel Sozialwissenschaftliche Modelle und Daten SoSe 2010 1 23 1 Formalia 2
MehrKünstliche Intelligenz ist der nächste Schritt im Rahmen der Digitalen Transformation
Künstliche Intelligenz ist der nächste Schritt im Rahmen der Digitalen Transformation Dipl.-Wirtsch.-Ing Ralph Appel, Direktor des VDI Verein Deutscher Ingenieure e.v. Statement zur VDI-Pressekonferenz
MehrMaschinelles Lernen SS 2005
1 Maschinelles Lernen SS 2005 Jianwei Zhang AB TAMS FB Informatik Universität Hamburg Büro: F308 Tel.: 2430 E-mail: zhang Web: http://tams-www.informatik.uni-hamburg.de/ Sprechstunde: Do. 15:00-16:00 2
MehrKollaborative Roboter Systeme zur flexiblen Automatisierung
Prof. Dr.-Ing. Jörg Franke Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik Kollaborative Roboter Systeme zur flexiblen Automatisierung Friedrich-Alexander-Universität Erlangen-Nürnberg
MehrAutomatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens
Automatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens Universität zu Köln Philosophisches Institut Seminar: Künstliche Intelligenz II Leitung: Stephan Schwiebert,
MehrIntelligente, Universelle Agenten. Michael Thielscher. Institut Künstliche Intelligenz
Intelligente, Universelle Agenten Michael Thielscher Institut Künstliche Intelligenz Intelligente Agenten Ein Agent nimmt seine Umgebung wahr (mittels Sensoren) agiert in seiner Umgebung (mittels Effektoren)
MehrBeweise aus dem Fach Grundzüge der Künstlichen Intelligenz
Beweise aus dem Fach Grundzüge der Künstlichen Intelligenz Alexander Pacha TU Wien - Matr. Nr.: 0828440 alexander.pacha@tuwien.ac.at 1 Begriserklärungen Für die folgenden Beweise werden zuerst folgende
MehrWinter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.
Praktikum Algorithmik Prof. Dr. Heiner Klocke Winter 2011/2012 12.11.2011 1. Erläuterung des Umfeldes Projekt kd- Trees Bei der Bildanalyse sollen Farbpunkte eines Bildes klassifiziert werden. Die Farbe
MehrOrganic Computing in Mobilen Arbeitsmaschinen
Organic Computing in Mobilen Arbeitsmaschinen H. Schmeck, S. Mostaghim, M. Wünsche 1) M. Geimer, T. Kautzmann 2) Institut für Angewandte Informatik und Formale Beschreibungsverfahren (), Lehrstuhl für
MehrNeuro-Soft GmbH. Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH
Neuro-Soft GmbH Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH Neuro-Soft GmbH LRC-AI, Wo steht die Entwicklung der künstlichen Intelligenz heute? Cognitive
MehrVHDL Objekte und Typen
VHDL Objekte und Typen Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2009/2010 VHDL Objekte und Typen 1/27 2009-07-31 Inhalt
MehrDOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING
DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING Andreas Nadolski Softwareentwickler andreas.nadolski@enpit.de Twitter: @enpit Blogs: enpit.de/blog medium.com/enpit-developer-blog 05.10.2018, DOAG Big Data
MehrProgramm Katze und Maus von Julia Gräml, 7. Klasse
Programm Katze und Maus von Julia Gräml, 7. Klasse käse:dreieck käseloch1:kreis käseloch2:kreis käseloch3:kreis mauskörper:ellipse mauskopf:kreis mausbein1:ellipse mausbein2:ellipse mausmund:ellipse mausauge1:kreis
MehrImproving the Accuracy of GPS
Improving the Accuracy of GPS Stephan Kopf, Thomas King, Wolfgang Effelsberg Lehrstuhl für Praktische Informatik IV Universität Mannheim Gliederung Motivation ierungsfehler von GPS Steigerung der Genauigkeit
MehrReinforcement Learning 2
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning 2 Uwe Dick Inhalt Erinnerung: Bellman-Gleichungen, Bellman-Operatoren Policy Iteration Sehr große oder kontinuierliche
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 4. Einführung: Umgebungen und Problemlösungsverfahren Malte Helmert Universität Basel 2. März 2015 Einführung: Überblick Kapitelüberblick Einführung: 1. Was ist Künstliche
MehrSeminar Künstliche Intelligenz Wintersemester 2014/15
Seminar Wintersemester 2014/15 Martin Hacker Richard Schaller Department Informatik FAU Erlangen-Nürnberg 8.10.2014 Vorstellung Über die Dozenten Institution Lehrstuhl für 2 / 7 2 / 7 KISEM WS 2014/15
MehrRegelung einer Luft-Temperatur-Regelstrecke
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Fachgebiet Regelungssysteme Leitung: Prof. Dr.-Ing. Jörg Raisch Praktikum Grundlagen der Regelungstechnik Regelung einer Luft-Temperatur-Regelstrecke
MehrAufgabenblatt 9. Die Abgabe muss bis Sonntag, 21. Juni 2009, 24 Uhr, erfolgen. Verspätet eingereichte Lösungen werden nicht berücksichtigt.
Fachbereich Informatik Prof. Dr. Peter Becker Programmiersprache Java Objektorientierte Programmierung II Sommersemester 2009 8. Juni 2009 Aufgabenblatt 9 Vorbemerkungen Mit diesem Aufgabenblatt können
MehrHindernisumfahrung eines autonomen Roboters in einer unbekannten statischen Umgebung. Ronny Menzel
Hindernisumfahrung eines autonomen Roboters in einer unbekannten statischen Umgebung. Ronny Menzel Inhalt Aufgabenstellung Begriffserklärung Hindernisumfahrungsstrategien Anforderungen an die Hindernisumfahrung
MehrSWARM. 1 MW Primärregelleistung mittels vernetzten Batteriespeichersystmen in Haushalten
SWARM 1 MW Primärregelleistung mittels vernetzten Batteriespeichersystmen in Haushalten Strommarkttreffen Ergebnisse aus dem Modellprojekt SWARM Berlin 02. September 2016 David Steber Computer Science
MehrSemiüberwachte Paarweise Klassifikation
Semiüberwachte Paarweise Klassifikation Andriy Nadolskyy Bachelor-Thesis Betreuer: Prof. Dr. Johannes Fürnkranz Dr. Eneldo Loza Mencía 1 Überblick Motivation Grundbegriffe Einleitung Übersicht der Verfahren
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrWindatlas Österreich René Cattin, Hans Winkelmeier
Windatlas Österreich René Cattin, Hans Winkelmeier Inhalt Präsentation des Windatlas Genauigkeit des Windatlas Der Weg zum Windatlas Erkenntnisse Stärken und Schwächen des Windatlas Schlussfolgerungen
MehrÜbersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrDer Sprung in die Zukunft! Einführung in neuronale Netzwerke
Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale
MehrVisuelle Bildsuche und Bildnavigation. Prof. Dr. Kai Uwe Barthel
Visuelle Bildsuche und Bildnavigation Prof. Dr. Kai Uwe Barthel Übersicht Probleme der Bildsuche Textbasierte Bildsuche Visuelle (Low-Level-)Bildsuche Fusion der Suchprinzipien Automatisches Bildverstehen
MehrBlockchain-Studie: Wo steht die deutsche Wirtschaft? Benjamin Matten, NTT DATA Deutschland Dr. Axel Pols, Bitkom Research
Blockchain-Studie: Wo steht die deutsche Wirtschaft? Benjamin Matten, NTT DATA Deutschland Dr. Axel Pols, Bitkom Research Blockchain Business Summit Nürnberg, 3. Dezember 2018 2 Bitkom Blockchain Studie
MehrZustandsbewertung gasisolierter Hochspannungsschaltanlagen
Zustandsbewertung gasisolierter Hochspannungsschaltanlagen innogy SE Sparte Netz & Infrastruktur Bereich Netzservice UNSERE LEISTUNGEN IHR ERFOLG Als Spezialist für technische Dienstleistungen und langjähriger
MehrDie neue Freiheit des Lernens: Digital. Weltweit. Zertifiziert. siemens.de/sitrain-remote-learning
Remote Learning@SITRAIN Die neue Freiheit des Lernens: Digital. Weltweit. Zertifiziert. siemens.de/sitrain-remote-learning Remote Learning@SITRAIN Expertenwissen für jeden per Fernzugriff Die Industrie
MehrSTRATEGISCHES MANAGEMENT. Informationen zum Schwerpunktfach
STRATEGISCHES MANAGEMENT Informationen zum Schwerpunktfach WARUM SIND UNTERNEHMEN ERFOLGREICH? STRATEGISCHE FRAGESTELLUNGEN Wie können Strategen in einer dynamischen und komplexen Umwelt neue Strategien
Mehr- Soccer Simulation - Dietmar Lammers / Hochschultag. Institut für Informatik Universität Münster. Agenten und Roboter.
Agenten Agenten und - Soccer Simulation - Institut für Informatik Universität Münster 2008-11-06 / Hochschultag Gliederung Agenten 1 Agenten 2 3 4 2006 2007 5 Agenten - Agenten Autonom agierende Programme
MehrÜbersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)
Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen
MehrV π (s) ist der Erwartungswert, der bei Start in s und Arbeit gemäß π insgesamt erreicht wird:
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2007 Verstärkungs-Lernen (Reinforcement Learning) Literatur: R.S.Sutton, A.G.Barto Reinforcement
MehrLocal Search Algorithmen 1
Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:
MehrErste Schritte um Schach zu lernen
Erste Schritte um Schach zu lernen Erstellt durch wikihow Übersetzungen: Schach ist ein sehr beliebtes Spiel und weithin als eines der ältesten noch gespielten Spiele anerkannt. Obwohl die Regeln von Schach
MehrDIGITALES 1:1 MENTORING FÜR MENSCHEN MIT BEHINDERUNG. eability. ein Projekt von:
DIGITALES 1:1 MENTORING FÜR MENSCHEN MIT BEHINDERUNG eability ein Projekt von: UNSER KONZEPT 1:1 Online Mentoring in der Bewerbungsphase für Menschen mit Behinderungen und Unternehmen Unsere Vision Wir
MehrMuss Europa grün werden, um im internationalen Wettbewerb zu bestehen?
EUREL Muss Europa grün werden, um im internationalen Wettbewerb zu bestehen? Prof. Dr.- Ing. Wolfgang Schröppel 1 Inhalt 1. Einleitung 2. Die Energieressourcen Europas 3. Die europäische Abhängigkeit von
Mehr