Übungsblatt 2 Lösungen

Ähnliche Dokumente
8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften

Einführung in Heuristische Suche

Einführung in die Methoden der Künstlichen Intelligenz

Künstliche Intelligenz

8.1 Blinde Suche. Grundlagen der Künstlichen Intelligenz. Klassische Suche: Überblick. 8. Klassische Suche: Breitensuche und uniforme Kostensuche

Einführung in Suchverfahren

Heuristische Suche. Uninformierte (blinde) Suchverfahren. erzeugen systematisch neue Knoten im Suchbaum und führen jeweils den Zieltest durch;

Künstliche Intelligenz

Künstliche Intelligenz

Intelligente Systeme

Übersicht. Informierte (heuristische) Suche. Algorithmus Bester-Zuerst-Suche. Bester-Zuerst-Suche

Uninformierte Suche in Java Informierte Suchverfahren

Aufgabe 1 (Allgemeines)

Uninformierte Suche in Java Informierte Suchverfahren

A O T Agententechnologien in betrieblichen Anwendungen und der Telekommunikation

Übungsblatt 2 Lösungen

Grundlagen der Künstlichen Intelligenz

Einführung in die Methoden der Künstlichen Intelligenz

Projekt 1: Constraint-Satisfaction-Probleme Abgabe: 7. Juni 2009

9. Heuristische Suche

Sokoban. Knowledge Engineering und Lernen in Spielen. Mark Sollweck Fachbereich 20 Seminar Knowledge Engineering Mark Sollweck 1

Grundlagen der Künstlichen Intelligenz

Zustandsraumsuche: Blinde und Heuristische Suche. Blinde und Heuristische Suche

Übersicht. Künstliche Intelligenz: 3. Problemlösen durch Suche Frank Puppe 1

Lösungshinweise zu Blatt 8 und Blatt 9 GIN2-SS04

Mathematics (M4) (English version) ORIENTIERUNGSARBEIT (OA 11) Gymnasium. Code-Nr.:

Grundlagen der Künstlichen Intelligenz

Schachaufgabe 05: Ma-Übung Chess Problem 05: Mate training

Intelligente Systeme

Technische Universität Berlin Fakultät IV - Elektrotechnik und Informatik. Schriftlicher Test - Teilklausur

Outline. Best-first search. Greedy best-first search A* search Heuristics Local search algorithms

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Wissensbasierte Systeme

Beweise aus dem Fach Grundzüge der Künstlichen Intelligenz

Einführung in die Finite Element Methode Projekt 2

Grundlagen der Künstlichen Intelligenz

Research Collection. Backward stochastic differential equations with super-quadratic growth. Doctoral Thesis. ETH Library. Author(s): Bao, Xiaobo

Ewald s Sphere/Problem 3.7

Grundlagen der Künstlichen Intelligenz

Intelligente Systeme. Suche

Informatik II, SS 2018

Grundlagen der Künstlichen Intelligenz

als Bewertungsfunktion g(n) eines Knotens n wird der tatsächliche Weg vom Startzustand zu diesem Knoten benutzt

Einführung in die Künstliche Intelligenz SS 18 Prof. Dr. J. Fürnkranz, Prof. Dr. K. Kersting

v+s Output Quelle: Schotter, Microeconomics, , S. 412f

Unterspezifikation in der Semantik Hole Semantics

Magic Figures. We note that in the example magic square the numbers 1 9 are used. All three rows (columns) have equal sum, called the magic number.

Im Fluss der Zeit: Gedanken beim Älterwerden (HERDER spektrum) (German Edition)

13.1 Einführung Einführung. Grundlagen der Künstlichen Intelligenz Gierige Bestensuche 13.3 A Weighted A. 13.

DISCGOLF-PARCOURS BAHN 1 PAR 2. 83m. Jede Bahn bietet eine Herausforderung an, welche Sie optional annehmen können. BAHN 2

Künstliche Intelligenz

Zustände und Knoten. Vorgänger Information: Tiefe = 4 ΣKosten=4 Expandiert: ja. Zustand Aktion: right. Aktion: down

KOGNITIVE SYSTEME. Find your way. Bedienungsanleitung

RECHNUNGSWESEN. KOSTENBEWUßTE UND ERGEBNISORIENTIERTE BETRIEBSFüHRUNG. BY MARTIN GERMROTH

Optimierung als Ziel. Optimierung als Ziel. Optimierung als Ziel. Optimization as a Goal. Optimization as a Goal. Optimization as a Goal

Geometrie und Bedeutung: Kap 5

Universität Koblenz-Landau Fachbereich Informatik Klausur Einführung in die Künstliche Intelligenz / WS 2003/2004. Jun.-Prof. Dr. B.

Grundlagen der Künstlichen Intelligenz

Die Bedeutung neurowissenschaftlicher Erkenntnisse für die Werbung (German Edition)

Grundlagen der Künstlichen Intelligenz

Übungen zur Analysis 2

Ressourcenmanagement in Netzwerken SS06 Vorl. 12,

DAS ERSTE MAL UND IMMER WIEDER. ERWEITERTE SONDERAUSGABE BY LISA MOOS

Produktdifferenzierung und Markteintritte?

Prof. Dr. Dörte Haftendorn, Leuphana Universität Lüneburg, 2013

Übungsblatt 6. Analysis 1, HS14

Monitor VIS 3xx Kurzanleitung

ETHISCHES ARGUMENTIEREN IN DER SCHULE: GESELLSCHAFTLICHE, PSYCHOLOGISCHE UND PHILOSOPHISCHE GRUNDLAGEN UND DIDAKTISCHE ANSTZE (GERMAN

Graph Suchalgorithmus Uninformierte Suche Informierte Suche. Pfadsuche. Mario Mohr. GWV-Tutorium 2013/ Januar 2014

Supplementary material for Who never tells a lie? The following material is provided below, in the following order:

Technische Universität Berlin Fakultät IV - Elektrotechnik und Informatik. Schriftlicher Test - Teilklausur 1

Planen als heuristische Suche

Martin Luther. Click here if your download doesn"t start automatically

Informierte Suchverfahren

Klausur "World Trade" February 2013

CB RADIO Service Manual AE 6890

LEBEN OHNE REUE: 52 IMPULSE, DIE UNS DARAN ERINNERN, WAS WIRKLICH WICHTIG IST (GERMAN EDITION) BY BRONNIE WARE

Handbuch der therapeutischen Seelsorge: Die Seelsorge-Praxis / Gesprächsführung in der Seelsorge (German Edition)

PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB

Unit 4. The Extension Principle. Fuzzy Logic I 123

PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB

HUMANGENETIK IN DER WELT VON HEUTE: 12 SALZBURGER VORLESUNGEN (GERMAN EDITION) BY FRIEDRICH VOGEL

Data Structures and Algorithm Design

Was heißt Denken?: Vorlesung Wintersemester 1951/52. [Was bedeutet das alles?] (Reclams Universal-Bibliothek) (German Edition)

Approximationsalgorithmen

Final Exam. Friday June 4, 2008, 12:30, Magnus-HS

10.1 Blinde Suche Blinde Suche. Grundlagen der Künstlichen Intelligenz Breitensuche: Einführung BFS-Tree. 10.

Geometrie II. Deniz Neufeld Deniz Neufeld Geometrie II / 39

CNC ZUR STEUERUNG VON WERKZEUGMASCHINEN (GERMAN EDITION) BY TIM ROHR

Klausur Theoretische Informatik I WS 2004/2005

Startzustand. Mögliche heuristische Funktionen:

3. Übung Künstliche Intelligenz

FAHRZEUGENTWICKLUNG IM AUTOMOBILBAU FROM HANSER FACHBUCHVERLAG DOWNLOAD EBOOK : FAHRZEUGENTWICKLUNG IM AUTOMOBILBAU FROM HANSER FACHBUCHVERLAG PDF

Algorithmen und Datenstrukturen

Panorama der Mathematik und Informatik

Fakultät III Univ.-Prof. Dr. Jan Franke-Viebach

Wie man heute die Liebe fürs Leben findet

Delta 2.4 W-LAN EINBAUANLEITUNG MOUNTINGINSTRUCTIONS

Transkript:

rundlagen der Künstlichen Intelligenz Prof. Dr. J. Boedecker, Prof. Dr. W. Burgard, Prof. Dr. F. Hutter, Prof. Dr. B. Nebel M. Krawez, T. chulte ommersemester 08 Universität Freiburg Institut für Informatik Aufgabe. (Informierte uche) Übungsblatt Lösungen Ein Haushalts-Roboter will den kürzesten Pfad von (tart) nach (Ziel) bestimmen. Der Roboter kann sich in jedem chritt um eine horizontal oder vertikal verbundenen Zelle fortbewegen, sofern diese nicht durch eine Wand (dicke schwarze Linie) von der aktuellen Zelle getrennt ist. Jede Bewegung hat uniforme Kosten von. Abbildung (a) zeigt den Initialzustand, Abbildung (b) die Heuristikwerte. 0 (a) Initialzustand (b) Heuristikwerte (a) Führen ie eine A -uche durch, um den kürzesten Pfad von nach zu bestimmen. Tragen ie von allen generierten Knoten die f-werte in die entsprechenden Zellen in Abbildung (a) ein. Alle anderen Zellen sollen frei bleiben.

8 6 6 8 6 6 8 6 8 6 6 8 (e is optional) (b) eben ie die Definition einer zulässigen Heuristik an. Ist die Heuristik aus Abbildung (b) zulässig? A heuristic h is admissible if h(n) h (n) for all n, where h is the optimal heuristic. I.e. h is admissible if it never over estimates the cost of the cheapest solution from n to a goal. The heuristic shown in figure (b) is admissible. (It s the Manhattan Distance heuristic.) (c) Wieviele Knoten muss A expandieren, wenn h als Heuristik verwendet wird, wobei h (n) die tatsächlichen Kosten eines optimalen Plans von n zum Ziel angibt? Je nach Implementation entweder 6 oder 7 (je nachdem ob der Zielzustand expandiert wird oder nicht). Die Implementierung aus der Vorlesung benötigt 7 Expansionen (b, b, b, c, c, c, c). Aufgabe. (Lokale uche) Wir werden nun Hill-Climbing im selben Zusammenhang (Roboternavigation auf einem rid mit Wänden als Hindernisse) untersuchen. (a) Erklären ie, wie hill-climbing als Methode zum Erreichen eines bestimmten Punktes in der Ebene durchgeführt werden würde. (b) Erläutern ie mit Hilfe eines Beispiels, warum nicht-konvexe Hindernisse (bestehend aus mehreren Wänden) zu einem lokalen Maximum für den Algorithmus führen können. (c) Ist es möglich, bei konvexen Hindernissen zu einer nicht-optimalen Lösung zu gelangen? (d) Würde simulated annealing bei dieser Problemfamilie immer aus lokalen Maxima herausfinden? Begründen ie Ihre Antwort.

(a) Hill-climbing is surprisingly effective at finding reasonable if not optimal paths for very little computational cost, and seldom fails in two dimensions. Let d(x,y) be the straight-line distance between point x and point y, andlet thevalueofapointpbe d(p,goal).an agentcanmovetoanyvertex accessible by a single straight-line movement, and when hill-climbing it will choose the accessible vertex nearest the goal. (b) This can occur when an agent is at a non-convex obstacle as shown in the figure below. (c) It is possible but unlikely. This requires that the agent be at a vertex that is closer to the goal than any of the other vertices of the obstacle, as illustrated in the figure below. (d) If a solution exists (the agent can t be entirely walled-in) and one chooses an appropriate annealing schedule, simulated annealing can escape local maxima for this family of problems. Aufgabe. (uchalgorithmen) Beweisen ie die folgenden Aussagen:

(a) Breitensuche ist ein pezialfall der uniformen Kostensuche. Breitensuche expandiert immer einen unexpandierten Knoten minimaler Tiefe, während uniforme Kostensuche immer einen unexpandierten Knoten mit minimalen Pfadkosten expandiert. ind die Aktionskosten bei uniformer Kostensuche konstant, so hat ein Knoten genau dann Tiefe k, wenn seine Pfadkosten k betragen. Insbesondere hat er also minimale Tiefe genau dann, wenn er minimale Pfadkosten hat. Die Expansionskriterien sind somit identisch. (b) Breitensuche, Tiefensuche und uniforme Kostensuche sind pezialfälle der gierigen Bestensuche (greedy best-first search). Dass Breitensuche ein pezialfall der uniformen Kostensuche ist, wurde schon in der letzten Teilaufgabe gezeigt. Es bleibt also noch zu zeigen, dass Tiefensuche und uniforme Kostensuche pezialfälle der gierigen Bestensuche sind. Tiefensuche ist ein pezialfall der gierigen Bestensuche für h(n) := depth(n). Uniforme Kostensuche ist ein pezialfall der gierigen Bestensuche für h(n) := g(n) (c) Uniforme Kostensuche ist ein pezialfall der A*-uche. Die Bewertungsfunktion bei uniformer Kostensuche ist f(n) = g(n), bei A*-uche f(n) = g(n)+h(n). etze also h 0. Aufgabe. (Forward Checking / Kantenkonsistenz) Betrachten ie das 6-Damen Problem, bei dem 6 pielfiguren auf einem 6 6 Felder großen Brett so platziert werden sollen, dass sich keine zwei Damen auf der selben horizontalen, vertikalen oder diagonalen Line befinden. Der Wertebereich sei dom(v i ) =,...,6 für alle Variablen v i V. Betrachten ie nun den Zustand α = {v,v }. v v v v v v 6 Q Q 6

(a) Erzeugen ie Kantenkonsistenz in α. eben ie hierzu insbesondere die Wertebereiche der Variablen vor und nach dem Erzeugen der Kantenkonsistenz an. ie dürfen annehmen, dass der Wertebereich von Variablen mit bereits zugewiesenen Werten nur aus dem zugewiesenen Wert besteht, während unbelegte Variablen den vollen Wertebereich haben. Wählen ie immer diejenige Variable mit niedrigstem Index, für welche noch keine Kantenkonsistenz erzeugt wurde. (b) Führen ie Forward-Checking in α aus. Vergleichen ie das Ergebnis mit (a). (a) In der Tabelle sind die Domänen nach dem Erzeugen der Kantenkonsistenz für alle Constraints an denen die jeweilige Variable beteiligt ist. v v v v v v 6 AC-v = ACv {} {} {6} {6} {6} {6} AC-v {} {} {} {6} {6} {6} AC-v {} {} {} {6} {6} {6} AC-v {} {} {} {6} {} {6} AC-v {} {} {} {6} {} {6} AC-v 6 {} {} {} {6} {} {6} AC-v {} {} {} {6} {} {6} AC-v {} {} {} {} {} {6} Immer wenn die Domäne einer Variablen reduziert wird werden alle Constraints an denen die Variable beteiligt ist wieder in die queue gesteckt. Dies kann dann zu weiteren Änderungen führen. (Im zweiten Durchlauf steht AC-v i nicht mehr für alle Constraints von v i, sondern nur für die, die wieder in die queue eingefügt wurden) (b) v v v v v v 6 FC dom(v) {} {} {} {6} {} {6} Wenn man die Arc Consistency von v checkt, stellt man fest, dass v keine erlaubten Werte mehr hat, wenn man v oder v zuweist. Dies wird durch forward checking nicht erkannt. Arc-Consistency hat zudem eine queue und propagiert Änderungen an einer Domäne weiter so dass die Constraints einer Variable eventuell mehrfach getestet werden. In diesem Fall findet AC- sofort heraus, dass die Constraints unerfüllbar sind, während der uch- Algorithmus mit Forward-Checking noch deutlich mehr zu tun hat.