Einführung in die Methoden der Künstlichen Intelligenz

Größe: px
Ab Seite anzeigen:

Download "Einführung in die Methoden der Künstlichen Intelligenz"

Transkript

1 Einführung in die Methoden der Künstlichen --- Vorlesung vom Sommersemester 2007 Prof. Dr. Ingo J. Timm, Andreas D. Lattner Professur für Wirtschaftsinformatik und Simulation (IS) 3. Uninformierte Suche Prof. Timm 1

2 Wohl definierte Suchprobleme... Generelles Suchproblem: Probleme und Lösungen: Initialstatus Operator oder Erfolgsfunktion Zustandsraum des Problems, das sind alle Zustände, die vom Initialzustand über Sequenzen von Aktionen zu erreichen sind. Pfade im Zustandsraum sind Sequenzen von Aktionen von Zustand a zu Zustand z. Zieltest: Einfache Überprüfung, ob aktueller Zustand = Ziel. Abstrakte Eigenschaften testen (Bsp.: Schach). Zusätzlich: Testen, welche Sequenz billiger ist (Pfadkosten g). Initialzustand, Operator-Satz, Zieltest und Pfadkostenfunktion definieren zusammengenommen ein Problem. Lösung Pfad vom Initialzustand zum Ziel Problemlösungsagenten Staubsauger-Problem Zustände 8 Zustände wie in Bild Operatoren Move right, left and suck Ziel-Test Kein Staub Pfadkosten Jeder Schritt kostet eine Einheit Beispielprobleme Prof. Timm 2

3 Staubsauger-Problem keine Sensoren, gestrichelt: set of states Beispielprobleme 4. Suchstrategien (uninformiert, blind) Komplexität b der Verzweigungsfaktor d die Tiefe des flachsten Knoten m die maximale Länge eines jeden Pfades in dem Suchraum 1. Breitensuche 2. Uniforme Kostensuche 3. Tiefensuche 4. Tiefensuche (limitiert) 5. Iterative Tiefensuche 6. Bi-direktionale Suche Suchstrategien Prof. Timm 3

4 Breitensuche Die Wurzel wird zuerst erweitert, dann alle Knoten, die von der Wurzel erzeugt worden sind usw. Alle Knoten der Tiefe d sind erweitert worden, bevor der ersten Knoten der Tiefe d+1 erzeugt wird. Kann durch GeneralSearch mit Queue implementiert werden. Zeit: O(b d ), hier b=2. Suchstrategien Uniforme Kostensuche Modifiziert Breitensuche, erweitert nur den Knoten, der am wenigsten kostet (über Pfad g(n)). Breitensuche = uniforme Kostensuche mit g(n) = Tiefe(n). Problem: von S nach G, Kosten sind markiert (a). SAG ist die erste Lösung (Kosten 11). Der Algorithmus erkennt dieses nicht als Lösung, weil 11 > 5 (von B). Danach SBG als finale Lösung (b). a) S A 1 10 Zustandsraum 5 B 5 G 15 C 5 S S S S 0 A B C A B C A B C b) Suchstrategien G G 11 G Prof. Timm 4

5 Tiefensuche Erweitert immer einen der Knoten auf der tiefsten Ebene des Baumes. Kann mit GeneralSearch und einer Queue, die die neuen Zustände an den Anfang hängt, implementiert werden. Suchstrategien Tiefensuche (2) Diskussion: Moderater Speicherverbrauch (nur der einzelne Pfad muß gespeichert werden), max. Tiefe m und Verzweigungsfaktor b = bm Knoten. Im Vergleich zur Breitensuche: 118 KB statt 10 PB bei Tiefe 12, das ist ein Faktor von 1:10 Milliarden weniger Speicherplatz. Zeit: O(b m ). Für Probleme mit vielen Lösungen besser als Breitensuche. Aber: man kann stecken bleiben, wenn man den falschen Pfad entlang läuft. --> Tiefensuche ist nicht vollständig und nicht optimal. Deswegen sollte man vermeiden, die Tiefensuche bei Suchproblemen mit großen oder infiniten maximalen Tiefen einzusetzen. Suchstrategien Prof. Timm 5

6 Limitierte Tiefensuche Verhindert die Nachteile von Tiefensuche durch Abschneiden der max. Tiefe des Pfades. Kann mit einem Spezialalgorithmus oder mit GeneralSearch mit Operatoren, die die Tiefe speichern, implementiert werden. Bsp.: Suche nach Lösung eines Weges bei 20 Städten. Wir wissen, daß die max. Pfadlänge 19 ist. Neuer Operator: Wenn man in Stadt A ist und weniger als 19 Schritte gegangen ist, generiert man einen neuen Zustand in Stadt B mit einer Pfadlänge, die um eins größer ist. Man findet garantiert die Lösung (wenn sie existiert), aber der Algorithmus ist nicht optimal. Zeit- und Speicherverbrauch ähnlich der Tiefensuche. Limitierte Tiefensuche ist vollständig aber nicht optimal. Suchstrategien Limitierte Tiefensuche (2) Pfadlänge 19 ist offensichtlich, aber wenn wir uns die Karte genau ansehen, werden wir die Pfadlänge neun feststellen (Diameter des Zustandsraums). Diameter gibt ein besseres Tiefenlimit und folglich eine effizientere Suche, aber: Diameter ist nicht oft bekannt. Iterative Tiefensuche verwendet verschiedene Tiefen, um das beste Tiefenlimit zu suchen. Suchstrategien Prof. Timm 6

7 Iterative Tiefensuche Generelle Strategie zum Auffinden des besten Tiefenlimits Suchstrategien Iterative Tiefensuche (2) Suchstrategien Prof. Timm 7

8 Iterative Tiefensuche (3) Diskussion: Kombination der Vorteile von Breiten- und Tiefensuche. Iterative Tiefensuche ist vollständig und optimal. Zustände wie Breitensuche, ca. 11% mehr Knoten. Zeit: O(b d ). Speicher: O(bd). Generell: iterative Tiefensuche wird dann eingesetzt, wenn ein großer Suchraum vorhanden ist und die Tiefe der Lösung unbekannt ist. Suchstrategien Bidirektionale Suche Idee: Suche beginnt sowohl vom Initialzustand als auch vom Ziel Ende ist erreicht, wenn sich beide Suchzweige in der Mitte treffen Motivation: b d/2 + b d/2 << b d Suchstrategien Prof. Timm 8

9 Bidirektionale Suche (2) Diskussion: Zeit: O(b d/2 ), wenn b in beide Richtungen gleich ist. Bsp.: für b=10 und d=6 würde die Breitensuche Knoten erzeugen, hier aber nur (weil Tiefe=3). Speicher: O(b d/2 ), weil einer der Bäume im Speicher gehalten werden muß Was muß beachtet werden? Vorgänger für Rückwärtssuche Effizienz bei der Suche, ob der aktuelle Knoten schon im anderen Baum existiert. Welche Art der Suche wird angestrebt?... Suchstrategien Vergleich der Suchstrategien wobei: b = Verzweigungsfaktor d = Tiefe m = maximale Tiefe l = Limit generell: Annahme level d+1 Suchstrategien Prof. Timm 9

10 Vermeidung von wiederholten Zuständen Möglichkeiten: Gehe nicht den Weg zurück, den Du gekommen bist. Kreiere keine Pfade mit Zyklen. Generiere keinen Zustand, der vorher schon einmal generiert worden ist. (a): Zustandsraum mit jeweils zwei Optionen, um von A nach B usw. zu gelangen (Zustandsraum d+1) (b): Korrespondierender Suchbaum 2 d (c): Rechteckiger Gitterraum, grau: Zustände, die in 2 Schritten von A erreicht werden können Besonderheiten Suche mit partiellen Informationen Abhängig vom Wissen über die Umgebung (Sensoren, Effektoren) Bsp.: Staubsaugerwelt: Zwei Orte, jeder Ort enthält Staub oder nicht, der Agent befindet an einem der beiden Orte. Es gibt acht mögliche Zustände. Der Agent hat drei Aktionen: Left, Right, Suck. Zielzustand --> {7,8} Besonderheiten Prof. Timm 10

11 Sensorlose (konformante) Probleme 1. Single-state problems Welt ist verfügbar, Sensoren geben alle notwendigen Informationen, Aktionen sind exakt bekannt. Schritte zum Ziel kalkulierbar (Bsp.: Zustand 5, Aktion [Right,Suck]). Besonderheiten 2. Multiple-state problems Aktionen sind bekannt, Informationen über die Welt sind nur bedingt zugreifbar (Extremfall: keine Sensoren). Initialzustand aus {1,2,3,4,5,6,7,8}. Mit [Right] würden wir in {2,4,6,8} übergehen und mit [Right, Suck, Left, Suck] wird das Ziel erreicht. Agent schlußfolgert über eine Menge von Zuständen (Belief states) Kontingente Probleme Während der Ausführung treten die Probleme auf (Bsp.: {1,3} --> {7,8}). Annahme: Agent ist in {1,3}, er könnte die Sequenz [suck, right, suck] formulieren, sucking geht in {5,7}, moving right geht dann in {6,8}, wenn er in {6} ist, ist die Aktion erfolgreich, wenn er in {8} ist, scheitert die Aktion. -->Lösung: von {1,3} über {5,7} in {6,8} und dann [suck] aber nur, wenn Staub vorhanden ist. D. h., das Lösen des Problems bedeutet Aufnahme von Sensordaten während der Ausführungsphase! Der Agent muß dadurch nicht einzelne Sequenzen prüfen, sondern einen ganzen Baum. Adversariale Probleme, wenn Unsicherheit durch einen Gegner ausgelöst wird. Besonderheiten Prof. Timm 11

12 Explorationsprobleme Annahme: Der Agent hat keine Informationen über die Effekte seiner Aktionen (schwierigste Situation). Der Agent muß experimentieren, dieses ist eine Art von Suche, aber eine Suche in der realen Welt anstatt in der Modell-Welt. Wenn der Agent überlebt, lernt er seine Welt wie durch eine Karte kennen und kann dadurch später Subprobleme lösen. Single-state und multiple-state Probleme sind mit ähnlichen Suchtechniken lösbar, Contingency Probleme benötigen komplexere Techniken. Besonderheiten Zusammenfassung Vor der Suche nach Lösungen muß ein Ziel definiert werden, daß wiederum für die Formulierung des Problems benötigt wird. Ein Problem besteht aus vier Komponenten: einem Initialzustand, einem Satz von Operatoren, einer Zieltestfunktion und einer Kostenfunktion. Die Umgebung des Problems ist durch den Zustandsraum repräsentiert. Ein Pfad durch den Zustandsraum vom Initialzustand zum Ziel heißt Lösung. Der generelle TreeSearch-Algorithmus kann verwendet werden, um jedes Problem zu lösen, spezielle Varianten stehen für spezielle Strategien zur Verfügung. Suchalgorithmus werden nach Vollständigkeit, Optimalität sowie Zeit- und Speicherkomplexität beurteilt. Prof. Timm 12

13 Zusammenfassung (2) Breitensuche erweitert den flachsten Knoten zuerst. Sie ist vollständig, optimal für uniform-cost-operatoren und hat O(b d ) für Zeit- und Speicherkomplexität. Uniforme Kostensuche erweitert den billigsten Knoten zuerst. Sie ist vollständig und optimal. Zeit und Speicherk. wie Breitensuche. Tiefensuche erweitert den tiefsten Knoten zuerst. Sie ist nicht vollständig und nicht optimal. Zeitk. O(b m ), Speicherk. O(bm). Limitierte Tiefensuche setzt ein Limit bei der Tiefe der Suche. Iterative Tiefensuche verwendet limitierte Tiefensuche mit sich erhöhenden Limits bis ein Ziel gefunden worden ist. Sie ist vollständig und optimal. Zeitk. O(b d ), Speicherk. O(bd). Bidirektionale Suche kann die Suchzeit enorm verringern, ist allerdings nicht immer anwendbar. Die Speichervoraussetzungen sind nicht praktikabel. 4. Informierte Suche --- Suche mit Vorwissen --- Prof. Timm 13

14 Wiederholung Suche ohne Vorwissen generiert neue Zustände und testet sie gegen das Ziel. Meistens sehr ineffizient. Problemspezifisches Wissen kann helfen, die Suche zu beschleunigen. Inhalt der Vorlesung 1. Informierte (heuristische) Suchstrategien 2. Heuristische Funktionen 3. Lokale Suchalgorithmen und Optimierungsprobleme 4. Zusammenfassung Prof. Timm 14

15 Bestensuche GeneralSearch Implementierung von Wissen in der Queuefunktion, die die Knoten verwaltet und erweitert: Evaluationsfunktion. Wenn Knoten der Wertigkeit nach geordnet werden Bestensuche. Aber: Nur scheinbar der beste Knoten, eigentlich müsste es Scheinbare Bestensuche heißen. Erweiterung des allgemeinen Suchalgorithmus Informierte Suchstrategien Bestensuche Evaluationsfunktion Maß z.b. durch Pfadkosten g, aber: keine direkte Suche zum Ziel! Zusätzliche Kostenfunktion Sie ist notwendig für die Kostenschätzung vom gegenwärtigen Zustand zum nächstgelegenen Zielzustand. Dazu gibt es zwei grundlegende Ansätze: Erweiterung des Knotens, der dem Ziel am nächsten ist Greedy Search Erweiterung des Knotens, der am wenigsten kostet A*-Suche Informierte Suchstrategien Prof. Timm 15

16 Greedy Search Beispiele: Eine der einfachsten Suchstrategien für Bestensuche ist die Minimierung der geschätzten Kosten. Weg von Arad nach Bukarest Maß:? Der Knoten, der durch die Beurteilung am nächsten zum Zielzustand ist, wird erweitert. Eine Funktion, die diese Kosten schätzt (und nicht kalkuliert!) nennt man heuristische Funktion (meistens mit h bezeichnet). h(n) = geschätzte Kosten des billigsten Pfades vom Zustand am Knoten n zum Zielzustand und es gilt für den Zielzustand: h(n)=0 Informierte Suchstrategien Greedy Search Karte von Rumänien mit Straßendistanzen in km sowie Luftentfernung nach Bukarest. Wieso ist das eine gute Heuristik? Weg von Iasi nach Fagaras? Informierte Suchstrategien Prof. Timm 16

17 Greedy Search Zustände nach Greedy Search für Bukarest, Luftlinienentfernung als heuristische Funktion h, die Knoten sind mit ihrem h-wert bezeichnet. Suchkosten? Optimal? Informierte Suchstrategien Greedy Search Heuristik liefert hier minimale Suchkosten Lösung wird gefunden, ohne dass ein Knoten erzeugt wird, der nicht auf dem Lösungspfad ist. Aber: sie ist nicht optimal Der Pfad über Fagaras ist 32km länger Merke: Strategie versucht jederzeit, die Kosten zu minimieren, ohne die Gesamtkosten bis ans Ende zu betrachten deswegen Greedy Search (manche Autoren: Bestensuche oder Best-first) Informierte Suchstrategien Prof. Timm 17

18 Greedy Search Diskussion Greedy Search ist ähnlich wie Tiefensuche (tiefer Pfad, zurück, wenn Sackgasse), sie ist nicht optimal und nicht vollständig, Worst-case Zeit- und Raumkomplexität: O(b m ) mit m = maximale Tiefe des Suchraums, aber h ist entscheidend! Greedy Search neigt dazu, manchmal falsch zu starten (Iasi Fagaras: Sackgasse) Lösung hier: erst einen suboptimalen Weg einschlagen, die Heuristik direkte Entfernung würde hier einen Knoten erzeugen, der überflüssig ist....und wenn keine repeated states beachtet werden, kann es oszillieren (zwischen Neamt und Iasi) Aber: Greedy Algorithmen tendieren dazu, schnell Lösungen zu finden, wenn auch nicht immer die optimale. Informierte Suchstrategien A*-Suche Greedy Search: minimiert Kosten zum Ziel mit h(n), aber: nicht vollständig und nicht optimal Uniform-cost Search: minimiert Kosten bis n mit g(n) Ist vollständig und optimal, kann aber ineffizient sein Lösung: Kombination beider Ansätze Geschätzte Kosten der billigsten Lösung durch den Knoten n: f(n) = g(n) + h(n) f(n) = geschätzte Kosten der billigsten Lösung durch n Informierte Suchstrategien Prof. Timm 18

19 A*-Suche Minimale Pfadkosten: die A*-Suche Restriktion: Funktion h, die die Kosten zum Ziel nicht überschätzt: Eine derartige Funktion nennt man auch admissible heuristic, zulässige (nicht überschätzende) Heuristik Bsp.: die Luftlinienentfernung zweier Orte ist niemals länger als der direkte Weg über die Straße. Solche Heuristiken sind optimistisch, die realen Kosten werden in der Regel höher sein. Wenn h zulässig ist, wird f(n) niemals die realen Kosten der besten Lösung durch n überschätzen. Informierte Suchstrategien A*-Suche Zustände nach A*-Suche für Bukarest, die Knoten sind mit dem Wert der Funktion f = g + h bezeichnet. Die h-werte sind die Luftlinienentfernungen nach Bukarest von vorhin. Informierte Suchstrategien Prof. Timm 19

20 A*-Suche Monotonieverhalten Kosten von f steigen kontinuierlich Monotonie ( consistent heuristic ) Beweis zur Optimalität Z 1 ist optimales Ziel mit Pfadkosten f* Ein suboptimales Ziel Z 2 ist generiert worden und ist in der Queue; g(z 2 ) > f* k Annahme: n ist ein noch nicht erweiterter Knoten auf dem kürzesten Pfad zu einem optimalen Ziel Z 1 Weil h unterschätzt, ist f* f(n) und außerdem wenn n nicht zur Erweiterung für Z 2 gewählt ist, ist f(n) f(z 2 ) Kombination (Transitivität): f* f(z 2 ) Aber weil Z 2 ein Zielzustand ist, ist h(z 2 )=0 f(z 2 )=g(z 2 ) Also: f* g(z 2 ) Widerspruch! Z 2 ist nicht suboptimal, A* wählt deshalb nie Z 2 aus. Informierte Suchstrategien n Z 1 Z 2 A*-Suche Wenn die Kosten f monoton steigen, dann kann man Konturen im Zustandsraum zeichnen Innerhalb der Kontur 420 sind alle f(n) <= 420 A* expandiert die Knoten mit geringsten Kosten, deswegen konzentrische Bänder Mit uniformer Kostensuche: h(n)=0; Bänder werden Kreise Je besser Heuristik, desto enger werden Bänder f = 380, 400, 420 mit Arad als Startzustand A* ist vollständig und optimal Informierte Suchstrategien Prof. Timm 20

21 Speicher-beschränkte heuristische Suche Speicher-beschränkte Suche Bei schweren Problemen gibt man meist zuviel Speicherplatz. Hier werden zwei Methoden vorgestellt, die dem Einhalt gebieten können: IDA*, eine logische Erweiterung von ID (iterative Deepening) SMA*, ähnlich wie A*, aber mit einer stringenten Queue-Größe Iterative Tiefensuche A* (IDA*) Jede Iteration ist eine Tiefensuche mit f-kostenschranke statt Tiefenlimit. Jede Iteration expandiert alle Knoten innerhalb einer Kontur und schaut über die Konturgrenze nach der nächsten Iteration. IDA* ist vollständig und optimal, Raumkomplexität proportional dem längsten explorierten Pfad: seien δ die kleinsten Kosten eines Operators, seien f* die optimale Kosten der Lösung, dann gilt: IDA* benötigt bf*/δ Knoten im Speicher. Eine gute Abschätzung ist bd Informierte Suchstrategien Speicher-beschränkte heuristische Suche Simplified Memory-Bounded A* Suche (SMA*) Folgende Eigenschaften zeichnen diese Suche aus: Nutzt gesamten Speicher, der zur Verfügung steht Vermeidet repeated states Vollständig, solange genug Speicher für den flachsten Lösungsweg vorhanden ist. Optimal, solange genug Speicher für den flachsten Lösungsweg vorhanden ist, ansonsten beste Lösung für verfügbaren Speicher. Informierte Suchstrategien Prof. Timm 21

22 Speicher-beschränkte heuristische Suche SMA* Suche D,F,I,J sind Zielknoten Jeder Knoten ist mit seinen f- Kosten beschrieben. In Klammern der Wert des besten vergessenen Nachfolger-Knotens. Ziel: Finde den Zielknoten mit den geringsten Kosten mit genug Speicher für nur drei Knoten. Algorithmus: Update die f-kosten von A mit dem Minimum seiner Kinder (13), Speicher ist voll. Addiere den Nachfolger am billigsten Knoten (G). F vom besten vergessenen Nachfolger merken (15), B entfernen, H erweitern, Speicher voll, H ist keine Lösung, H = f(g)=24, f(a)=15, f (A)=24, I=Ziel, aber 24 B erweitern, C wie H, D erweitern, f(d)=20 f(a)=20, Suche beendet. Informierte Suchstrategien 8-Puzzle: heuristische Funktionen b 3, typische Lösung nach 20 Schritten Erschöpfende Suche: 3 20 Zustände Ohne repeated states nur 9!/2 = Ziel daher: gute Heuristik h 1 : Zahl der Plättchen in falscher Position (unterschätzend?) h 2 : Manhattan-Entfernung (City-Block Distance): Summe der Entfernungen der Plättchen von ihren Endzuständen (unterschätzend?) Heuristische Funktionen Prof. Timm 22

23 8-Puzzle: heuristische Funktionen H 1 ist unterschätzend, weil jedes Plättchen, daß an einer falschen Position ist, mindestens einmal verschoben werden muss, h 1 wäre hier 7. H 2 ist unterschätzend, weil jeder Schritt nur ein Plättchen einen Schritt weiter zum Ziel bringen, h 2 = =18. Qualität einer Heuristik: Ein Weg, die Qualität der Heuristik zu bestimmen ist der effektive Verzweigungsfaktor b*. Sei n die Anzahl der durch A* expandierten Knoten, d die Lösungstiefe, dann ist b* der Verzweigungsfaktor, den ein gleichmäßiger Baum der Tiefe d mit n Knoten hätte, n + 1 = 1 + b* + (b*) (b*) d Heuristische Funktionen Qualität heuristischer Funktionen Beispiel: wenn die Tiefe 5 ist und die Anzahl der Knoten 52, dann ist der effektive Verzweigungsfaktor zufällig generierte Probleme des 8-Puzzles mit variabler Lösungslänge Tabelle zeigt die Anzahl der Knoten, die erweitert werden und die Verzweigungsfaktoren. h 2 ist besser als h 1 (h2 dominiert h1), iterative Tiefensuche (uninformiert) ist viel schlechter. Heuristische Funktionen Prof. Timm 23

24 Heuristiken entwickeln Relaxierte Probleme Annahme: Puzzle-Regeln wären einfacher (z.b. Plättchen können überall hin geschoben werden) h 1 wäre dann keine Schätzung mehr, sondern würde beste Lösung liefern Problem mit weniger Restriktionen auf den Aktionen heisst relaxiertes Problem Kosten für optimale Lösung eines relaxierten Problems ist eine unterschätzende Heuristik für Originalproblem Lernen aus Erfahrung h(n) ist eine Schätzkostenfunktion von Initialzustand bis zur Lösung Idee: Lösen vieler Puzzles und Verwendung dieser Lösungen als Lernbasis Jedes Beispiel besteht aus dem Zustand der Lösung und der dazu gehörigen Kosten Induktive Lernalgorithmen können jetzt eingesetzt werden (KNN, DTs, RL) Heuristische Funktionen Lokale Suche Bisher: systematisches Durchsuchen des Zustandsraumes. Pfade werden teilweise im Speicher gehalten und zur Laufzeit werden neue Teilpfade generiert Wenn Ziel gefunden ist, ist der Pfad die Lösung des Problems Bei vielen Problemen ist der Pfad nebensächlich, nur das Erreichen des Zieles ist entscheidend (Bsp.: 8-Damen Problem) Andere Klasse von Algorithmen: lokale Suchalgorithmen, ein einzelner Zustand wird im Speicher gehalten und man bewegt sich im Zustandsraum auf der Basis lokaler Informationen. Keine Pfade! Zwei Vorteile: meistens wenig Speicherverbrauch häufig gute Lösungen in großen oder kontinuierlichen Suchräumen Lokale Suchalgorithmen Prof. Timm 24

25 Optimierungsprobleme Derartige Algorithmen sind gut für Optimierungsprobleme geeignet, d.h. finde den besten Zustand anhand einer Zielfunktion Landschaft (2D) globales Minimum, Maximum vollständiger lokaler Suchalgorithmus findet Lösung, wenn sie existiert Optimaler Algorithmus findet globales Minimum Lokale Suchalgorithmen Vier Algorithmen Hill-climbing (Gradient descent) Simulated Annealing Local Beam Suche Genetische Algorithmen Lokale Suchalgorithmen Prof. Timm 25

26 Hill-Climbing Suche Schleife, die dem höchsten Wert folgt (aufwärts) Terminiert, wenn höchster Wert erreicht ist Kein Suchbaum h=17, beste Nachfolger haben h=12 Lokale Suchalgorithmen Beispiel: 8 Damen Zustand hat 8 Damen auf Brett, eine pro Spalte Nachfolgerfunktion liefert alle möglichen Zustände, die durch Ziehen einer Dame in der gleichen Spalte generiert werden (8x7=56) h = Anzahl von Damenpaaren, die sich gegenseitig attackieren Globales Minimum ist 0 Lokales Minimum, h=1, jeder Nachfolger hat hohe Kosten Hill-Climbing Suche Probleme: Lokale Minima Lösung supoptimalen Nachfolger wählen Grate (Kammlinien lokaler Maxima) Plateaus zufälligen Nachfolger Diskussion: 8-Damen Problem wird in 14% aller Fälle gelöst, wenn zufällig gestartet wird, 86% Problemfälle Wenn Lösung, dann ist sie schnell, im Mittel nach vier Schritten Wenn nicht, dann bleibt man nach drei Schritten stecken aber: bei 8 8 ~ 17 Millionen Zuständen ist das nicht schlecht! Nicht vollständig Vermeidung der Nachteile durch zufälliges Neustarten... Wichtig in der Praxis! Lokale Suchalgorithmen Prof. Timm 26

27 Simulated Annealing Hill-Climbing nicht vollständig aber effizient, Kontrast: zufällige Auswahl ist vollständig aber nicht effizient Idee der Kombination: Simulated Annealing Bewusstes Verlassen eines lokalen Maximums in falsche Richtung Innere Schleife wie Hill-Climbing Anstatt die beste, eine zufällige Auswahl des nächsten Zuges: Wenn der Zug die Situation verbessert: ausführen, Wenn nicht: sonst. Zug mit gewisser Wahrscheinlichkeit <1 ausführen; die Wahrscheinlichkeit vermindert sich exponentiell mit der Schlechtheit des Zuges: E Lokale Suchalgorithmen Simulated Annealing Der Parameter T wird benutzt, um die Wahrscheinlichkeit zu bestimmen: bei höheren Werten von T sind auch schlechtere Züge möglich Parameter schedule: bestimmt T aufgrund der bisher abgearbeiteten Zyklen. Annealing: graduelle Abkühlung von Flüssigkeiten Value-Funktion korrespondiert zur Energie der Atome T zur Temperatur Schedule bestimmt die Abnahme der Temperatur Lokale Suchalgorithmen Prof. Timm 27

28 Local Beam Suche Pfad-basierter Algorithmus Nicht nur ein einzelner Zustand im Speicher, sondern k In jedem Schritt werden alle Nachfolger für die k Zustände generiert, wenn Ziel erreicht ist stop Sonst: wähle die besten k Nachfolger aus und mache weiter Anders als SA, weil wir k Pfade haben. Bsp.: wenn ein Zustand gute Nachfolger generiert und für die anderen k-1 nicht klar ist, in welche Richtung gegangen wird Local Beam Suche kann sich schnell in Regionen verlieren Abhilfe: Stochastic Beam Suche anstatt die besten k Nachfolger werden zufällig k Nachfolger gewählt Stichworte: natürliche Auslese, Offspring, Organismus Lokale Suchalgorithmen Genetische Algorithmen GA ist Variante von Local Beam Suche Nachfolger wird aus zwei Vorgängerzuständen erzeugt Evolution ist Pate, deswegen der Name a) k zufällige Zustände am Anfang (Population), jeder Zustand (Individuum) ist ein String über einem endlichen Alphabet (Bsp.: 8-Damen Problem 8 digits, jedes digit zwischen 1 und 8 b) Evaluationsfunktion oder hier: Fitnessfunktion (höhere Werte für bessere Zustände), im Bsp.: Anzahl der attackierenden Damen, 28 ist Lösung Lokale Suchalgorithmen Prof. Timm 28

29 Genetische Algorithmen c) Reproduktionsschritt, zwei Zustände werden zufällig ausgewählt (nach Wahrscheinlichkeiten), hier ein Zustand 2x, ein anderer überhaupt nicht d) Für jedes Paar crossover point zufällig wählen. Nachfolger werden dann gemischt e) Mutation zufällig mit kleiner unabhängigen Wahrscheinlichkeit Lokale Suchalgorithmen Beispiel zu GA Zwei Eltern (wie (c)) und ein Nachfolger Lokale Suchalgorithmen Prof. Timm 29

30 GA Diskussion Kombination von hillclimbing und zufälliger Auswahl Vorteil (wenn überhaupt nachweisbar) durch crossover Mathematisch nachweisbar, das crossover nichts bringt, wenn die digits am Anfang zufällig sind Praxisbedeutung groß bei Optimierungsproblemen (circuit layouts, scheduling) Lokale Suchalgorithmen Zusammenfassung Heuristiken werden benutzt, um die Kosten der Suche zu minimieren. Bestensuche ist GeneralSearch, bei der die Knoten mit den minimalen Kosten zuerst erweitert werden. Wenn man die geschätzten Kosten zum Erreichen des Zieles minimiert (h(n)), bekommt man greedy search (GS). Die Suche ist i.d.r. besser als uninformierte Algorithmen, aber GS ist weder vollständig noch optimal. Die Minimierung von f(n) = g(n) + h(n) kombiniert die Vorteile von uniform-costsearch und greedy search. Wenn man garantiert, dass h(n) nicht überschätzt wird und repeated states beachtet werden, bekommt man A*-Suche. A* ist vollständig und optimal. Die Zeitkomplexität hängt von der Wahl der Heuristik ab. Man kann den Speicherplatz reduzieren, in dem man speicher-beschränkte Algorithmen verwendet (IDA*, SMA*). Prof. Timm 30

31 Zusammenfassung Lokale Suchalgorithmen behalten immer nur einen Zustand im Speicher, können aber auf lokalen Maxima stehen bleiben (Hill-Climbing). Mit Simulated Annealing (SA) ist ein stochastisches Verfahren entwicklt worden, um dieses zu verhindern (mit Temperatur). SA ist vollständig und optimal. Genetische Algorithmen ist stochastische Hill-Climbing Suche mit einer großen Anzahl von Individuen in einer Population. Neue Zustände werden durch Crossover und Mutation erzeugt. Prof. Timm 31

Einführung in die Methoden der Künstlichen Intelligenz

Einführung in die Methoden der Künstlichen Intelligenz Einführung in die Methoden der Künstlichen --- Vorlesung vom 21.4.2009 --- Informierte Suche Suche mit Vorwissen Ingo J. Timm, René Schumann Professur für Wirtschaftsinformatik und Simulation (IS) Wiederholung

Mehr

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften 1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften

Mehr

Übersicht. Informierte (heuristische) Suche. Algorithmus Bester-Zuerst-Suche. Bester-Zuerst-Suche

Übersicht. Informierte (heuristische) Suche. Algorithmus Bester-Zuerst-Suche. Bester-Zuerst-Suche Übersicht I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden 5. Constraint-Probleme 6. Spiele III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Vorlesung 4: Suchverfahren Informierte Suche 1/132 INFORMIERTE SUCHSTRATEGIEN (ISS) Benutzt neben der Definition des Problems auch problemspezifisches Wissen. Findet Lösungen effizienter

Mehr

Einfacher Problemlösungsagent. Übersicht. Begriffsdefinitionen für Einfach-Probleme

Einfacher Problemlösungsagent. Übersicht. Begriffsdefinitionen für Einfach-Probleme Übersicht I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden 5. Constraint-Probleme 6. Spiele III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres

Mehr

Heuristische Suche. Uninformierte (blinde) Suchverfahren. erzeugen systematisch neue Knoten im Suchbaum und führen jeweils den Zieltest durch;

Heuristische Suche. Uninformierte (blinde) Suchverfahren. erzeugen systematisch neue Knoten im Suchbaum und führen jeweils den Zieltest durch; Heuristische Suche Uninformierte (blinde) Suchverfahren erzeugen systematisch neue Knoten im Suchbaum und führen jeweils den Zieltest durch; verwenden keine problemspezifische Zusatzinformation. Informierte

Mehr

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel

Mehr

Uninformierte Suche in Java Informierte Suchverfahren

Uninformierte Suche in Java Informierte Suchverfahren Uninformierte Suche in Java Informierte Suchverfahren Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Suchprobleme bestehen aus Zuständen

Mehr

Informierte Suchverfahren

Informierte Suchverfahren Informierte Suchverfahren Für größere Suchbäume sind Breiten- und Tiefesuche nicht effizient genug. Vielversprechender sind Ansätze, bei denen Problemwissen zur Steuerung des Suchprozesses eingesetzt wird.

Mehr

Startzustand. Mögliche heuristische Funktionen:

Startzustand. Mögliche heuristische Funktionen: Informierte Suchverfahren Für größere Suchbäume sind Breiten- und Tiefensuche nicht effizient genug. Vielversprechender sind Ansätze, bei denen Problemwissen zur Steuerung des Suchprozesses eingesetzt

Mehr

Beispiele. mit. Beispiel 2.3. Suche einen Weg von nach. Tiefensuche bzw. Breitensuche.

Beispiele. mit. Beispiel 2.3. Suche einen Weg von nach. Tiefensuche bzw. Breitensuche. 2. Suchverfahren Uninformierte Suchverfahren Beispiel 2.4. Ein Weinhändler hat drei Krüge, einen von 9 Liter, einen von 7 Liter und einen von 4 Liter Inhalt. Auf den Krügen sind keine Litermarkierungen

Mehr

Sokoban. Knowledge Engineering und Lernen in Spielen. Mark Sollweck Fachbereich 20 Seminar Knowledge Engineering Mark Sollweck 1

Sokoban. Knowledge Engineering und Lernen in Spielen. Mark Sollweck Fachbereich 20 Seminar Knowledge Engineering Mark Sollweck 1 Sokoban Knowledge Engineering und Lernen in Spielen Mark Sollweck 29.04.2010 Fachbereich 20 Seminar Knowledge Engineering Mark Sollweck 1 Überblick Sokoban Spielregeln Eigenschaften Lösungsansatz IDA*

Mehr

Uninformierte Suche in Java Informierte Suchverfahren

Uninformierte Suche in Java Informierte Suchverfahren Uninformierte Suche in Java Informierte Suchverfahren Stephan Schwiebert WS 2008/2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln 8-Damen-Problem Gegeben: Schachbrett

Mehr

Zustandsraumsuche: Blinde und Heuristische Suche. Blinde und Heuristische Suche

Zustandsraumsuche: Blinde und Heuristische Suche. Blinde und Heuristische Suche Zustandsraumsuche: Blinde und Heuristische Suche Einführung in die KI Übungsstunde am 01.11.04 Benmin Altmeyer 1 Heute im Angebot Was ist Suche? Suche als Probemlösung Zustandsraumsuche Vollständigkeit

Mehr

Wissensbasierte Systeme 3. Problemlösen durch Suche

Wissensbasierte Systeme 3. Problemlösen durch Suche Wissensbasierte Systeme 3. Problemlösen durch Suche Problemlösende Agenten, Problemformulierungen, Suchstrategien Michael Beetz Plan-based Robot Control 1 Inhalt 3.1 Problemlösende Agenten 3.2 Problemformulierungen

Mehr

Einführung in Suchverfahren

Einführung in Suchverfahren Einführung in Suchverfahren Alfred Kranstedt 0.0.0 Seminar Intelligente Algorithmen Was ist heute Thema?. Was ist ein Suchproblem? Definitionen, Darstellungen etc.. Suchstrategien Blinde Suche Heuristische

Mehr

9. Heuristische Suche

9. Heuristische Suche 9. Heuristische Suche Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S Heuristische Suche Idee: Wir nutzen eine (heuristische)

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 9. Klassische Suche: Baumsuche und Graphensuche Malte Helmert Universität Basel 13. März 2015 Klassische Suche: Überblick Kapitelüberblick klassische Suche: 5. 7.

Mehr

Einführung in Heuristische Suche

Einführung in Heuristische Suche Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 6. Klassische Suche: Datenstrukturen für Suchalgorithmen Malte Helmert Universität Basel 7. März 2014 Klassische Suche: Überblick Kapitelüberblick klassische Suche:

Mehr

Grundlagen der KI + Reasoning Agents

Grundlagen der KI + Reasoning Agents Grundlagen der KI + Reasoning Agents Prof. Thielscher Welche heuristischen Suchverfahren gibt es? Erläutern Sie A* am Beispiel. Aufbau und Schlussfolgerungen von Bayesschen Netzen. Thielscher drängt auf

Mehr

13.1 Einführung Einführung. Grundlagen der Künstlichen Intelligenz Gierige Bestensuche 13.3 A Weighted A. 13.

13.1 Einführung Einführung. Grundlagen der Künstlichen Intelligenz Gierige Bestensuche 13.3 A Weighted A. 13. Grundlagen der Künstlichen Intelligenz 31. März 2014 13. Klassische Suche: Gierige Bestensuche, A, Weighted A Grundlagen der Künstlichen Intelligenz 13. Klassische Suche: Gierige Bestensuche, A, Weighted

Mehr

Übungsblatt 2 Lösungen

Übungsblatt 2 Lösungen Grundlagen der Künstlichen Intelligenz Prof. Dr. M. Bennewitz, Prof. Dr. W. Burgard, Dr. M. Ragni N. Abdo, Dr. J. Boedecker, M. Göbelbecker, J. Hess Sommersemester 2013 Universität Freiburg Institut für

Mehr

8.1 Blinde Suche. Grundlagen der Künstlichen Intelligenz. Klassische Suche: Überblick. 8. Klassische Suche: Breitensuche und uniforme Kostensuche

8.1 Blinde Suche. Grundlagen der Künstlichen Intelligenz. Klassische Suche: Überblick. 8. Klassische Suche: Breitensuche und uniforme Kostensuche Grundlagen der Künstlichen Intelligenz 17. März 2014 8. Klassische Suche: Breitensuche und uniforme Kostensuche Grundlagen der Künstlichen Intelligenz 8. Klassische Suche: Breitensuche und uniforme Kostensuche

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 9. Klassische Suche: Tiefensuche und iterative Tiefensuche Malte Helmert Universität asel 21. März 2014 Tiefensuche Iterative Tiefensuche linde Suche: Zusammenfassung

Mehr

9.1 Tiefensuche. Grundlagen der Künstlichen Intelligenz. 9.1 Tiefensuche. 9.2 Iterative Tiefensuche. 9.3 Blinde Suche: Zusammenfassung

9.1 Tiefensuche. Grundlagen der Künstlichen Intelligenz. 9.1 Tiefensuche. 9.2 Iterative Tiefensuche. 9.3 Blinde Suche: Zusammenfassung Grundlagen der Künstlichen Intelligenz 21. März 2014 9. Klassische Suche: Tiefensuche und iterative Tiefensuche Grundlagen der Künstlichen Intelligenz 9. Klassische Suche: Tiefensuche und iterative Tiefensuche

Mehr

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme

Mehr

Vortrag. Suchverfahren der Künstlichen Intelligenz. Sven Schmidt (Technische Informatik)

Vortrag. Suchverfahren der Künstlichen Intelligenz. Sven Schmidt (Technische Informatik) Vortrag Suchverfahren der Künstlichen Intelligenz Sven Schmidt (Technische Informatik) Suchverfahren der Künstlichen Intelligenz Grundlagen Zustandsraumrepräsentation Generische Suche Bewertung von Suchstrategien

Mehr

der Künstlichen Intelligenz

der Künstlichen Intelligenz Einführung in die Methoden der Künstlichen --- Vorlesung vom 30.4.2009 --- Sommersemester 2009 Ingo J. Timm, René Schumann Professur für Wirtschaftsinformatik und Simulation (IS) Spiele spielen Prof. Timm

Mehr

Wissensbasierte Suche

Wissensbasierte Suche Wissensbasierte Suche Jürgen Dorn Inhalt uninformierte Suche wissensbasierte Suche A* und IDA* Algorithmus Suche in Und/Oder-Graphen Jürgen Dorn 2003 Wissensbasierte Suche 1 Suche Suche in (expliziten

Mehr

3. Problemlösen durch Suche

3. Problemlösen durch Suche 3. Problemlösen durch Suche Problemlösende Agenten sind zielorientierte Agenten. Zielformulierung Fokussierung des möglichen Verhaltens unter Berücksichtigung der aktuellen Situation Problemformulierung

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Übungsblatt #1 Modellierung & Suche Prof. Dr. J. Fürnkranz, Dr. G. Grieser Aufgabe 1.1 Wir betrachten folgende Welt: Welt: Die Welt der Staubsauger-Akteure besteht aus Räumen, die

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 16. Klassische Suche: A : Optimalität, Teil II Malte Helmert Universität Basel 4. April 2014 Klassische Suche: Überblick Kapitelüberblick klassische Suche: 3. 5.

Mehr

Rationale Agenten Rationalität

Rationale Agenten Rationalität Rationale Agenten Rationalität des Agentenverhaltens hängt ab von Performanzmaß (auf dem Ergebnis der Agentenfunktion) vorgegebenem Wissen des Agenten über die Umgebung ausführbaren Aktionen aktueller

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche

Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Seminar Ausgewählte Themen des Operations Research bei Prof. R. Schrader Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Wintersemester 2007/2008 Eingereicht von: Florian Schuster Datum: 12.12.2007

Mehr

2 Problemlösen und Suche

2 Problemlösen und Suche Universität Bielefeld Was ist Problemlösen? Problemlösen und Suche. Vorlesung: Suchprobleme und Suchalgorithmen; heuristische Suche Methoden der Künstlichen Intelligenz Ipke Wachsmuth WS 003/00 Unter Problemlösen

Mehr

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010 Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für

Mehr

Heuristische Suchverfahren

Heuristische Suchverfahren Heuristische Suchverfahren Suchprozesse sind ein wichtiger Bestandteil unterschiedlicher Problemlöseverfahren z.b. Bestimmung der Konfliktmenge in Produktionssystemen Suche nach resolvierbaren Klauseln

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe 3. Elementare Graphalgorithmen und Anwendungen 4. Minimal spannende Bäume 5. Kürzeste Pfade 6. Traveling Salesman Problem 7. Flüsse

Mehr

Seminar künstliche Intelligenz

Seminar künstliche Intelligenz Seminar künstliche Intelligenz Das Kürzeste-Wege-Problem in öffentlichen Verkehrsnetzen Stefan Görlich mi5517 25.05.2005 Inhalt 1. Einleitung 1.1 Problemstellung 3 1.2 Zielsetzung 3 1.3 Die Suche in öffentlichen

Mehr

2 Problemlösen und Suche

2 Problemlösen und Suche 2 Problemlösen und Suche 4. Vorlesung: Suchprobleme und Suchalgorithmen; heuristische Suche Methoden der Künstlichen Intelligenz Ipke Wachsmuth WS 2008/2009 Kernfragen der Vorlesung 1. Wie lässt sich Wissen

Mehr

Universität Koblenz-Landau Fachbereich Informatik Klausur KI-Programmierung WS 2007/2008. Jun.-Prof. Dr. B. Beckert. 21.

Universität Koblenz-Landau Fachbereich Informatik Klausur KI-Programmierung WS 2007/2008. Jun.-Prof. Dr. B. Beckert. 21. Name, Vorname: Matrikel-Nr.: Studiengang: Universität Koblenz-Landau Fachbereich Informatik Klausur KI-Programmierung WS 2007/2008 Jun.-Prof. Dr. B. Beckert 21. Februar 2008 Informatik (Diplom) Computervisualistik

Mehr

Heuristische Verfahren

Heuristische Verfahren Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.

Mehr

Von Labyrinthen zu Algorithmen 2. Gerald Futschek

Von Labyrinthen zu Algorithmen 2. Gerald Futschek Von Labyrinthen zu Algorithmen 2 Gerald Futschek Problem der Zyklen Die Strategie Linke Wand entlang funktioniert leider nicht bei allen Labyrinthen, wenn man von A nach B will! Möglicherweise gibt es

Mehr

Smart Graphics: Methoden 2 Suche

Smart Graphics: Methoden 2 Suche Smart Graphics: Methoden 2 Suche Vorlesung Smart Graphics LMU München Medieninformatik Butz/Boring Smart Graphics SS2007 Methoden: Suche Folie 1 Themen heute Smart Graphics Probleme als Suchprobleme Suchverfahren

Mehr

Suche. Sebastian Stüker

Suche. Sebastian Stüker Institut für Anthropomatik Suche Sebastian Stüker 11.01.2010 Interactive Systems Labs X.Huang/Acero/Hon, Spoken Language Processing : Kapitel 12,13 Konferenzartikel: Hagen Soltau, Florian Metze, Christian

Mehr

6. Spiele Arten von Spielen. 6. Spiele. Effizienzverbesserung durch Beschneidung des Suchraums

6. Spiele Arten von Spielen. 6. Spiele. Effizienzverbesserung durch Beschneidung des Suchraums 6. Spiele Arten von Spielen 6. Spiele Kombinatorische Spiele als Suchproblem Wie berechnet man eine gute Entscheidung? Effizienzverbesserung durch Beschneidung des Suchraums Spiele mit Zufallselement Maschinelles

Mehr

Der Branching-Operator B

Der Branching-Operator B Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte

Mehr

Der folgende Vortrag basiert auf dem Text A Polynomial Time Algorithm for the N-Queens Problem von Rok Sosic und Jun Gu aus dem Jahre 1990.

Der folgende Vortrag basiert auf dem Text A Polynomial Time Algorithm for the N-Queens Problem von Rok Sosic und Jun Gu aus dem Jahre 1990. Ein polynomieller Algorithmus für das N-Damen Problem 1 Einführung Der folgende Vortrag basiert auf dem Text A Polynomial Time Algorithm for the N-Queens Problem von Rok Sosic und Jun Gu aus dem Jahre

Mehr

Einführung in die Methoden der Künstlichen Intelligenz

Einführung in die Methoden der Künstlichen Intelligenz Einführung in die Methoden der Künstlichen --- Vorlesung vom 19.4.2007 --- Sommersemester 2007 Prof. Dr. Ingo J. Timm, Andreas D. Lattner Professur für Wirtschaftsinformatik und Simulation (IS) 2. Intelligente

Mehr

Smart Graphics: Search 1

Smart Graphics: Search 1 Smart Graphics: Search 1 Lecture Smart Graphics Andreas Butz 23.11.2010 1 Über den Studiengang und das Forschungsgebiet Medieninformatik informieren Studenten, Interessenten sowie deren Familie und Freunde

Mehr

2. Spiele. Arten von Spielen. Kombinatorik. Spieler haben festgelegte Handlungsmöglichkeiten, die durch die Spielregeln definiert werden.

2. Spiele. Arten von Spielen. Kombinatorik. Spieler haben festgelegte Handlungsmöglichkeiten, die durch die Spielregeln definiert werden. . Spiele Arten von Spielen. Spiele. Spiele Arten von Spielen Kombinatorik Spieler haben festgelegte Handlungsmöglichkeiten, die durch die Spielregeln definiert werden. Kombinatorische Spiele als Suchproblem

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme WBS3 Slide 1 Wissensbasierte Systeme Sebastian Iwanowski FH Wedel Kap. 3: Algorithmische Grundlagen der KI WBS3 Slide 2 Suchstrategien Warum sind Suchstrategien so wichtig in Wissensbasierten Systemen?

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Vorlesung 4: Suchstrategien Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 14. April 2017 HALBORDNUNG TOPOLOGISCHE ORDNUNG TOPOLOGISCHES

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

9 Minimum Spanning Trees

9 Minimum Spanning Trees Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne

Mehr

Lösungshinweise zu Blatt 8 und Blatt 9 GIN2-SS04

Lösungshinweise zu Blatt 8 und Blatt 9 GIN2-SS04 Lösungshinweise zu Blatt 8 und Blatt 9 GIN2-SS04 er Baum zum Zustandsgraphen UI UI 0 1 2 3 4 UI 5 6 7 8 UI UI UI UI UI 9 0 1 2 3 4 5 6 7 9 K30 K31 K32 K33 K35 K36 K37 K38 K39 K41 K42 K43 K44 K45 8 K34

Mehr

Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20

Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20 Suche in Spielbäumen Suche in Spielbäumen KI SS2011: Suche in Spielbäumen 1/20 Spiele in der KI Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche Einschränkung von Spielen auf: 2 Spieler:

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme WBS4 Slide 1 Wissensbasierte Systeme Vorlesung 4 vom 03.11.2004 Sebastian Iwanowski FH Wedel WBS4 Slide 2 Wissensbasierte Systeme 1. Motivation 2. Prinzipien und Anwendungen 3. Logische Grundlagen 4. Suchstrategien

Mehr

NP-vollständige Probleme

NP-vollständige Probleme Effiziente Algorithmen Lösen NP-vollständiger Probleme 256 NP-vollständige Probleme Keine polynomiellen Algorithmen, falls P NP. Viele wichtige Probleme sind NP-vollständig. Irgendwie müssen sie gelöst

Mehr

10. Übungsblatt zu Algorithmen I im SS 2010

10. Übungsblatt zu Algorithmen I im SS 2010 Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter Sanders G.V. Batz, C. Schulz, J. Speck 0. Übungsblatt zu Algorithmen I im SS 00 http//algo.iti.kit.edu/algorithmeni.php

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2007 11. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen Safe

Mehr

Einführung in die Informatik 2

Einführung in die Informatik 2 Einführung in die nformatik 2 raphenexploration Sven Kosub A Algorithmik/Theorie komplexer Systeme Universität Konstanz E 202 Sven.Kosub@uni-konstanz.de Sprechstunde: Freitag, 12:30-14:00 Uhr, o.n.v. Sommersemester

Mehr

Einführung in die Methoden der Künstlichen Intelligenz

Einführung in die Methoden der Künstlichen Intelligenz Einführung in die Methoden der Künstlichen --- Vorlesung vom 8.5.2007 --- Sommersemester 2007 Prof. Dr. Ingo J. Timm, Andreas D. Lattner Professur für Wirtschaftsinformatik und Simulation (IS) Ein kleiner

Mehr

Informatik II, SS 2014

Informatik II, SS 2014 Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 11 (4.6.2014) Binäre Suchbäume II Algorithmen und Komplexität Binäre Suchbäume Binäre Suchbäume müssen nicht immer so schön symmetrisch sein

Mehr

Grundlagen der Künstlichen Intelligenz Einführung Minimax-Suche Bewertungsfunktionen Zusammenfassung. Brettspiele: Überblick

Grundlagen der Künstlichen Intelligenz Einführung Minimax-Suche Bewertungsfunktionen Zusammenfassung. Brettspiele: Überblick Grundlagen der Künstlichen Intelligenz 22. Mai 2015 41. Brettspiele: Einführung und Minimax-Suche Grundlagen der Künstlichen Intelligenz 41. Brettspiele: Einführung und Minimax-Suche Malte Helmert Universität

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2009 11. Vorlesung Uwe Quasthoff Universität Leipzig Institut für Informatik quasthoff@informatik.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen

Mehr

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de Wiederholung: Anfragegraph Anfragen dieses Typs können als Graph dargestellt werden: Der

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 10 (27.5.2016) Binäre Suchbäume II Algorithmen und Komplexität Zusätzliche Dictionary Operationen Dictionary: Zusätzliche mögliche Operationen:

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

Algorithmen. Von Labyrinthen zu. Gerald Futschek

Algorithmen. Von Labyrinthen zu. Gerald Futschek Von Labyrinthen zu Algorithmen Gerald Futschek Wie kommt man aus einem Labyrinth (griechisch: Haus der Doppelaxt, wahrscheinlich Knossos auf Kreta) Labyrinth heraus? Labrys Grundriss des Palastes von Knossos

Mehr

Kapitel 5: Suchverfahren: Backtracking

Kapitel 5: Suchverfahren: Backtracking Kapitel 5: Suchverfahren: Backtracking Prof. Dr. F. Otto (Universität Kassel) Entwurf und Analyse von Algorithmen 278 / 541 Suchverfahren: Backtracking Viele Probleme lassen sich als Suchprobleme formulieren.

Mehr

Algorithmen und Datenstrukturen 2-1. Seminar -

Algorithmen und Datenstrukturen 2-1. Seminar - Algorithmen und Datenstrukturen 2-1. Seminar - Dominic Rose Bioinformatics Group, University of Leipzig Sommersemster 2010 Outline 1. Übungsserie: 3 Aufgaben, insgesamt 30 28 Punkte A1 Spannbäume (10 8

Mehr

Spiele. Programmierpraktikum WS04/05 Lange/Matthes 106

Spiele. Programmierpraktikum WS04/05 Lange/Matthes 106 Spiele Programmierpraktikum WS04/05 Lange/Matthes 106 Theorie eines Spiels mathematisch: k-spieler Spiel ist Graph G = (V, E) wobei V partitioniert in V 1,..., V k Knoten v V heissen Konfigurationen oft

Mehr

Aufgabe 1 (Allgemeines)

Aufgabe 1 (Allgemeines) Klausur... Einführung in die Künstliche Intelligenz 1SS08 Aufgabe 1 (Allgemeines) (4 Punkte) a) In der Künstlichen Intelligenz unterscheidet man symbolische und subsymbolische Verfahren. Beschreibe diese

Mehr

10.1 Blinde Suche Blinde Suche. Grundlagen der Künstlichen Intelligenz Breitensuche: Einführung BFS-Tree. 10.

10.1 Blinde Suche Blinde Suche. Grundlagen der Künstlichen Intelligenz Breitensuche: Einführung BFS-Tree. 10. Grundlagen der Künstlichen Intelligenz 13. März 2015 10. Klassische Suche: Grundlagen der Künstlichen Intelligenz 10. Klassische Suche: Malte Helmert Universität asel 13. März 2015 10.1 linde Suche 10.2

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Suchverfahren / Uninformierte Suche

Einführung in die Methoden der Künstlichen Intelligenz. Suchverfahren / Uninformierte Suche Einführung in die Methoden der Künstlichen Intelligenz Suchverfahren / Uninformierte Suche PD Dr. David Sabel SoSe 0 Stand der Folien:. pril 0 Einführung Blind Search n-damen Missionare & Kannibalen Modellierung

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

11. Übung zu Algorithmen I 6. Juli 2016

11. Übung zu Algorithmen I 6. Juli 2016 11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Einführung Mathematik Algorithmen Rekorde. Rubik s Cube. Höllinger, Kanzler, Widmoser WS 2016/17

Einführung Mathematik Algorithmen Rekorde. Rubik s Cube. Höllinger, Kanzler, Widmoser WS 2016/17 WS 2016/17 1 Einführung -Erfinder -Aufbau -Variationen 2 Mathematik -Permutationen -Singmaster Notation -Gruppentheorie -Zykelschreibweise 3 Algorithmen -Gottes Algorithmus -Thistlethwaite s Algorithmus

Mehr

Backtracking mit Heuristiken

Backtracking mit Heuristiken Backtracking mit Heuristiken Thomas Dübendorfer thomas@duebendorfer.ch 14. September 2000 Inhalt und Ablauf 1. Einführendes Beispiel (4 min) 2. Konzepte zu Backtracking (8 min) 3. Eingesperrt im Labyrinth

Mehr

Der Bestimmtheitssatz

Der Bestimmtheitssatz 2. Spielbäume und Intelligente Spiele Der Minimax-Algorithmus Der Bestimmtheitssatz Satz 2.1. Gegeben sei ein Spiel, das die folgenden Eigenschaften hat: 1. Das Spiel wird von zwei Personen gespielt. 2.

Mehr

Pro Informatik 2009: Objektorientierte Programmierung Tag 18. Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik

Pro Informatik 2009: Objektorientierte Programmierung Tag 18. Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik Tag 18 Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik 09.09.2009 Agenda Tag 16 Datenstrukturen Abstrakte Datentypen, ADT Folge: Stack, Queue, Liste, ADT Menge: Bäume:

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 02. November INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 02. November INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik Vorlesung am 2. November 27 2..27 Dorothea Wagner - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Vorlesung am 2. November 27 Helmholtz-Gemeinschaft

Mehr

Greedy Algorithms - Gierige Algorithmen

Greedy Algorithms - Gierige Algorithmen Greedy Algorithms - Gierige Algorithmen Marius Burfey 23. Juni 2009 Inhaltsverzeichnis 1 Greedy Algorithms 1 2 Interval Scheduling - Ablaufplanung 2 2.1 Problembeschreibung....................... 2 2.2

Mehr

2. Spielbäume und Intelligente Spiele

2. Spielbäume und Intelligente Spiele 2. Spielbäume und Intelligente Spiele Arten von Spielen 2. Spielbäume und Intelligente Spiele Kombinatorische Spiele als Suchproblem Wie berechnet man eine gute Entscheidung? Effizienzverbesserung durch

Mehr

Wissensrepräsentation und Problemlösung

Wissensrepräsentation und Problemlösung Wissensrepräsentation und Problemlösung Vorlesung an der Technischen Universität Chemnitz Wintersemester 2004/2005 Prof. Dr. Werner Dilger Wissensrepräsentation und Problemlösung Seite 2 Inhalt Wissensrepräsentation

Mehr

Intelligente Systeme

Intelligente Systeme Intelligente Systeme Spiele Prof. Dr. R. Kruse C. Braune {rudolf.kruse,christian,braune}@ovgu.de Institut für Intelligente Kooperierende Systeme Fakultät für Informatik Otto-von-Guericke Universität Magdeburg

Mehr

Algorithmen und Datenstrukturen 1

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen 1 6. Vorlesung Martin Middendorf / Universität Leipzig Institut für Informatik middendorf@informatik.uni-leipzig.de studla@bioinf.uni-leipzig.de Merge-Sort Anwendbar für

Mehr

Die Komplexitätsklassen P und NP

Die Komplexitätsklassen P und NP Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen November 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und

Mehr

Teil VII. Hashverfahren

Teil VII. Hashverfahren Teil VII Hashverfahren Überblick 1 Hashverfahren: Prinzip 2 Hashfunktionen 3 Kollisionsstrategien 4 Aufwand 5 Hashen in Java Prof. G. Stumme Algorithmen & Datenstrukturen Sommersemester 2009 7 1 Hashverfahren:

Mehr

Data Cubes PG Wissensmangement Seminarphase

Data Cubes PG Wissensmangement Seminarphase PG 402 - Wissensmangement Seminarphase 23.10.2001-25.10.2001 Hanna Köpcke Lehrstuhl für Künstliche Intelligenz Universität Dortmund Übersicht 1. Einführung 2. Aggregation in SQL, GROUP BY 3. Probleme mit

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Hallo Welt für Fortgeschrittene

Hallo Welt für Fortgeschrittene Hallo Welt für Fortgeschrittene Große Lösungsräume Maximilian Seitzer Informatik 2 Programmiersysteme Martensstraße 3 91058 Erlangen Große Lösungsräume Worum geht s hier? Für viele wichtige Probleme sind

Mehr

Übersicht. 5. Spiele. I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden

Übersicht. 5. Spiele. I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden Übersicht I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden 5. Spiele III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI

Mehr