Übersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1
|
|
- Gottlob Gärtner
- vor 5 Jahren
- Abrufe
Transkript
1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische Lernmethoden 21. Verstärkungslernen VII Kommunizieren, Wahrnehmen und Handeln Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1
2 Integration vor Vorwissen Entscheidungsbaumlernen benötigt als Vorwissen praktisch nur die Annahme, dass die zu lernende Funktion sich gut als möglichst einfacher Entscheidungsbaum ausdrücken lässt In vielen Fällen ist mehr Vorwissen da, das integriert werden sollte. Ein guter Kandidat für dessen Repräsentation ist die Aussagen- bzw. Prädikatenlogik Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 2
3 Restaurantdomäne und Logik Das erste Restaurant-Beispiel kann als logischer Satz geschrieben werden: Alternate (X1) BarX1 Fri/Sat(X1) hungry (X1) Das Ergebnis eines Entscheidungsbaums (Hypothese) kann ebenfalls als logischer Ausdruck notiert werden: Ein neues Beispiel kann mit der Hypothese inkonsistent sein falsch negativ (Hypothese sagt negativ, tatsächlich positiv) falsch positiv (Hypothese sagt positiv, tatsächlich negativ) Inkonsistente Hypothesen: ausschließen bzw. modifizieren Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 3
4 Lernen als Suche nach der aktuell besten Hypothese Lernen kann als Suche im Hypothesenraum betrachtet werden. Eine einfache Suchmethode ist Hill-Climbing mit Backtracking: (Lernen als Suche nach der aktuell besten Hypothese): Wähle zu dem ersten (positiven) Beispiel eine Hypothese und überprüfe sie mit jedem neuen Beispiel. Wenn das Beispiel falsch positiv ist, dann spezialisiere die Hypothese, wenn es falsch negativ ist, dann verallgemeinere die Hypothese, bis alle Beispiele korrekt klassifiziert werden. Nachteile: Bei großen Fallmengen wird es aufwendig, jede Änderung der aktuell besten Hypothese gegenzuprüfen. Es ist schwierig, gute Suchheuristiken zu finden. Backtracking kann sehr aufwendig sein, da der der Suchraum doppelt exponentiell ist. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 4
5 Beispiel für Suche nach aktuell bester Hypothese Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 5
6 Restaurant-Bsp. für Suche nach aktuell bester Hypothese Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 6
7 Least Commitment Suche Statt eine Hypothese zu modifizieren, kann man auch alle mit den Beispielen konsistenten Hypothesen betrachten. Jedes neue Beispiel hat entweder keinen Effekt oder bewirkt eine Eliminierung einiger Hypothesen Hypothesenraum ist eine Disjunktion: H1 H2 H3 Menge der aktuellen Hypothesen ist der "Versionenraum" inkrementeller Algorithmus (bei neuem Beispiel müssen die alten Beispiele nicht angeschaut werden) Least commitment: es werden keine willkürlichen Entscheidungen getroffen, daher kein Backtracking nötig Problem: wie repräsentiert man den riesigen Hypothesenraum? Analogie: wie repräsentiert man alle reellen Zahlen zwischen 1 und 2: durch Intervall [1, 2], da Zahlen geordnet. Lösung: Durch Angabe einer Obergrenze und einer Untergrenze entlang der partiellen Generalisierungs-/Spezialisierungs-Ordnung! Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 7
8 S-Menge und G-Menge Die Obergrenze nennen wird G-Menge (most general boundary; alle allgemeineren Hypothesen sind inkonsistent); die Untergrenze S-Menge (most specific boundary; alle spezielleren Hypothesen sind ebenfalls inkonsistent). Im allgemeinen sind die Mengen eine Disjunktion von Hypothesen, d.h. S-Menge sei S 1 v... v S n G-Menge sei G 1 v... v G m. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 8
9 Versionenraumlernen Algorithmus: Initialisierung: Setze S-Menge auf "Falsch" und G-Menge auf "Wahr". Aktualisierung: Für jedes neue Beispiel B tue: Wenn B falsch positiv für ein S i dann entferne S i aus S-Menge. Wenn B falsch negativ für ein G i dann entferne G i aus G-Menge. Wenn B falsch negativ für ein S i dann ersetze S i durch seine direkten Generalisierungen. Wenn B falsch positiv für ein G i dann ersetze G i durch seine direkten Spezialisierungen. bis einer von 3 Fällen eintritt: 1. Es bleibt nur ein Konzept im Versionenraum übrig -> Lösung 2. Entweder G oder S enthalten die leere Menge -> keine Lösung 3. Es gibt keine Beispiele mehr, ohne das G & S zusammenfallen, viele konsistente Lösungen (alle Hypothesen zwischen G & S) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 9
10 Veranschaulichung des Versionenraumlernens Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 10
11 Diskussion vom Versionenraumlernen Hauptnachteile: 1. Beschränkung der Erzeugung direkter Generalisierungen für Effizienz notwendig im einfachsten Fall nur Unterscheidung zwischen einem bestimmten Wert und "egal" Verbesserung durch vorgegebene Generalisierungshierarchie (z.b. longwait für wait-estimate (x, >60) und (x, 30-60) 2. Unfähigkeit zum Umgang mit verrauschten Daten ( nur begrenzte praktische Einsetzbarkeit). Einsatzbeispiele: Meta-Dendral: Lernprogramm zur Aufklärung von Molekülstrukuren mit Hilfe von Massenspektrogrammen LEX: Lernen der Lösung symbolischer Integrationsprobleme Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 11
12 Vorwissen beim Lernen Traditionelles Lernmodell (bis frühe 80 iger): Hypothese & Beschreibungen = Klassifikationen Beschreibungen: Klassifikationen: Hypothese: alle Beispiele Lösungen der Beispiele soll gelernt werden (stammt aus vordefiniertem Hypothesenraum) Präferenzkriterium: Ockham s razor (bevorzuge einfache Hypothesen). Der moderne Ansatz geht dagegen davon aus, daß der Agent Vorwissen hat und dieses aufgrund seiner Erfahrungen (Beispiele) verbessern will. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 12
13 Beispiele für Vorwissen beim Lernen Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 13
14 Beispiel EBL (Erklärungsbasiertes Lernen) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 14
15 Allgemeine Lernschemata 1. Erklärungsbasiertes Lernen: Es wird kein wirklich neues Wissen gelernt, sondern vorhandenes Wissen effizienter angewendet (Kompilierung des Hintergrundwissen mit Beispielen). Hypothese & Beschreibungen = Klassifikationen Hintergrundwissen = Hypothese 2. Relevanzbasiertes Lernen: Hintergrundwissen hilft, die Bedeutung von Eigenschaften der Hypothese zu bestimmen. Hypothese & Beschreibungen = Klassifikationen Hintergrundwissen& Beschreibungen& Klassifikationen = Hypothese 3. Wissensbasiertes induktives Lernen: Das Hintergrundwissen wird durch die neue Hypothese erweitert. Hintergrundwissen& Hypothese& Beschreibungen = Klassifikationen Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 15
16 Erklärungsbasiertes Lernen (EBL) Vorläufertechnik: Memorieren Die Ergebnisse komplexer Berechnungen werden in einer Datenbank (Hashtabelle) von Ein-/Ausgabe Paaren gespeichert. Vor jeder Berechnung wird nachgeschaut, ob das Ergebnis schon in der Datenbank vorhanden ist. EBL verallgemeinert Ein-/Ausgabe Paare zu Regeln, die auch in ähnlichen Situationen angewendet werden können. Triviales Beispiel: Unbekannte u => Ableitung (u², u) = 2u Philosophischer Hintergrund: Whitehead (1911): Die Zivilisation schreitet dadurch voran, dass sie die Anzahl wichtiger Operationen vermehrt, die wir ohne Nachdenken durchführen können. Es ist einfacher, zu erklären, warum etwas eine gute Idee ist, als auf die Idee zu kommen. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 16
17 Schritte des Erklärungsbasierten Lernens 1. Wenn ein Beispiel gegeben ist, konstruiere dafür den Beweisbaum mittels des Hintergrundwissen. 2. Verallgemeinere den Beweisbaum, indem im Zielausdruck Konstanten durch Variablen ersetzt werden. 3. Erzeuge eine neue Regel, deren Vorbedingung die Blätter im Beweisbaum sind, und deren Nachbedingung der verallgemeinerte Zielausdruck ist. 4. Entferne alle Vorbedingungen, die unabhängig von den Variablen des Zielausdrucks wahr sind. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 17
18 Beispiel EBL Problem: Vereinfache 1 * (0 + x) Wissensbasis enthält Regeln wie: hergeleiteter Beweis: s. Baum rechts oben Baum rechts unten: Verallgemeinerung des Beweisbaums mit Ersetzung der Variablen hergeleitete Regel: ArithmeticUnknown z Simplify (1 * (0 + z), z) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 18
19 Effizienzüberlegungen beim EBL 1. Zu viele Regeln können den Ableitungsprozess verlangsamen, da vor jeder neuen Ableitung erst alle bekannten Regeln überprüft werden. 2. Anwendbare Regeln sollen einen großen Effizienzgewinn bringen. 3. Regeln sollen so allgemein wie möglich formuliert werden, aber gleichzeitig möglichst operational sein (Kompromiss erforderlich). Komplexes Optimierungsproblem (unter der Annahme, dass zukünftige ähnlich wie bereits gelöste Probleme sind) Anwendungsbeispiel: Bei einem Prolog-basierten Sprachübersetzungssystem Schwedisch Englisch berichten Samuelsson und Rayner (1991) von einem Effizienzgewinn um den Faktor 1200 durch EBL. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 19
20 Relevanzbasiertes Lernen Relevanzbasiertes Lernen basiert auf funktionellen Abhängigkeiten (ähnlich wie in Normalformen bei Datenbanken), z.b. Nationalität (x,n) determiniert Sprache (x,s) in PK1: x,y,n,s Nation(x,n) Nation(y,n) Sprache(x,s) Sprache(y,s) Der Gewinn ist eine Reduktion des Suchraumes bei n Boolschen Merkmalen mit d funktionalen Abhängigkeiten von 2 n auf 2 n-d notwendigen Beispielen, um die Hypothese ohne Bias lernen zu können (mit Bias ist der Vorteil geringer, aber immer noch beträchtlich). einfacher Algorithmus zum Lernen minimaler funktioneller Abhängigkeiten Man betrachtet in der Beispielmenge erst ein- dann zweielementige Abhängigkeiten usw. bis eine minimale Menge gefunden wird, die das Zielattribut vorhersagt. Aufwand ist exponentiell zu der Länge der minimalen Abhängigkeiten. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 20
21 Beispiel Vorgehen zur Herleitung einer Determination von Leitfähigkeit (conductance): Probiere erst die 5 Attribute einzeln: kein Erfolg dann 2-Kombinationen: Erfolg bei Material Temperatur dann ggf. 3-Kombination außer Übermengen erfolgreicher kleinerer Determinationen: Erfolg bei Masse Größe (size) Temperatur (aber trivial) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 21
22 Relevanzbasiertes Entscheidungsbaum-Lernen Vergleich von relevanzbasiertem (RBDTL) mit normalem (DTL) Entscheidungsbaumlernen bei zufällig generierten Datensätzen, bei denen die Zielfunktion von nur 5 von 16 Attributen abhängt. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 22
23 Probleme beim relevanzbasierten Lernen Wie behandelt man Rauschen? Wie behandelt man Variablen mit kontinuierlichen Werten? Wie kann anderes Apriori-Wissen aus Determinationen genutzt werden? Kann der Algorithmus verallgemeinert werden, so dass er auch andere Repräsentationen außer Attribut-Wert umfasst? Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 23
24 Beispiel für induktives logisches Programmieren Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 24
25 Induktives Logisches Programmieren (1) Induktives logisches Programmieren basiert auf Prädikatenlogik (Hornlogik) statt auf Attribut-Wert-Repräsentationen und ist daher mächtiger. Beispiel: Vater (Philip, Charles) Vater (Philip, Anne)... Mutter (Mum, Margaret) Mutter (Mum, Elizabeth)... Verheiratet (Diana, Charles) Verheiratet (Elizabeth, Philip)... Männlich (Philip) Weiblich (Beatrice)... Gelernt werden soll z.b. das Konzept Großeltern aus Beispielen Großelter (Mum, Charles) Großelter (Elizabeth, Beatrice)... Großelter (Mum, Harry) Großelter (Spencer, Peter)... Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 25
26 Induktives Logisches Programmieren (2) Zielfunktion: Großelter (x, y) Es gibt z mit Mutter (x,z) Mutter (z, y) oder Mutter (x,z) Vater (z, y) oder Vater (x,z) Mutter (z, y) oder Vater (x,z) Vater (z, y) Mit Hintergrundwissen der Art: Elter (x,y) Mutter (x,y) Vater (x,y) ließe sich Großelter viel einfacher definieren: Großelter (x, y) z mit Elter (x,z) & Elter (z, y) Wie kommt man auf neue Prädikate?: konstruktive Induktion Zwei Ansätze zum induktiven logischen Programmieren: 1. Inverse Resolution 2. Verallgemeinerung der Entscheidungsbaum-Methoden Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 26
27 Inverse Resolution Normale Resolution: 2 Klauseln C 1 und C 2 produzieren Resolvent C. Man fügt die negierte Zielklausel zur Klauselmenge hinzu und leitet einen Widerspruch her. Inverse Resolution: Aus C 1 und C wird C 2 hergeleitet. Man startet bei einem Widerspruch und arbeitet mit der negierten Zielklausel rückwärts, bis man einen korrekten Beweisbaum zusammen hat. Problem: Riesiger Suchraum bei inverser Resolution. Entdecken neuer Prädikate: Da bei normaler Resolution Prädikate wegresolviert werden können, können bei inverser Resolution grundsätzlich auch neue Prädikate erfunden werden. Anwendung: GOLEM, das die Faltung von Proteinen aufgrund von Sequenzinformationen und Medikamenten zur Blockade von Proteinen relativ gut vorhersagt [Muggleton et al. 92, King et al. 92]. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 27
28 Beispiel: Inverse Resolution Generieren neuer Prädikate Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 28
29 Beispiel (Fortsetzung): inverse Resolution Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 29
30 Top-Down Lernverfahren (1) Verallgemeinerung von Entscheidungsbaum-Lernverfahren. Ähnlich wie Entscheidungsbäume durch Einfügen neuer Entscheidungsknoten wachsen, so können auch Klauselmengen wachsen, bis sie alle Beispiele richtig klassifizieren. Beispiel aus FOIL [Quinlan 90]: Gelernt werden soll das Prädikat: Großvater (x,y) Positive Beispiele: (George, Anne), (Philip, Peter), (Spencer, Harry)... Negative Beispiele: (Mum, Elizabeth), (Harry, Zarah), (Charles, Philip)... FOIL generiert eine Klauselmenge (in Hornlogik) mit Großvater (x,y) als Kopf, so dass die positiven Beispiele hergeleitet werden können und die negativen nicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 30
31 Top-Down Lernverfahren (2) Start: Generiere eine Klausel mit einem leeren Rumpf Großvater (x,y) Da die Klausel alle Beispiele als positiv klassifiziert, muss sie spezialisiert werden, z.b. 1. Vater (x,y) Großvater (x,y) 2. Elter (x,z) Großvater (x, y) [Elter gehört zum Hintergrundwissen] 3. Vater (x,z) Großvater (x,y) zu 1.: alle positiven Beispiele werden als negativ klassifiziert zu 2. und 3.: alle positiven Beispielen werden richtig klassifiziert, aber 3. hat weniger negative Beispiele als positiv gekennzeichnet und wird deswegen vorgezogen. Zu 3. ist weitere Spezialisierung erforderlich, z.b. Vater (x,z) & Elter (z,y) => Großvater (x,z) Da diese Klausel keine negativen Beispiel überdeckt, wird sie gewählt. Da alle positiven Beispiele überdeckt sind, terminiert der Algorithmus. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 31
32 Kritische Schritte in FOIL Generierung neuer Kandidaten-Literale in einer zu spezialisierenden Klausel, z.b. Erweiterung von Vater (x,z) Großvater (x,y) 3 Arten Literalen können hinzugefügt werden: - Literale, die Prädikate enthalten, wobei mindestens eine Variable in einem vorhandenen Literal enthalten sein muß, z.b. Mutter (z,u), Verheiratet (z,z), aber nicht verheiratet(u,v). - Gleichheits- und Ungleichheits-Literale, die Variablen aus den vorhandenen Literalen oder Konstanten betreffen müssen, z.b. z y. - Arithmetische Vergleiche (falls Funktionen mit kontinuierlichen Variablen vorhanden sind, z.b. x > y oder x > 100). Auch hier ergibt sich ein riesiger Verzweigungsfaktor. Auswahl des besten Literals (Choose-Literal): Ähnliche Heuristiken wie beim Informations-Gewinn des Entscheidungsbaum-Lernen. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 32
33 Pruning und Anwendung von FOIL Klauseln werden eliminiert, wenn sie länger sind als die Beispiele, die sie erklären. Anwendung: Programm, was aus Beispielen korrekte Prolog-Programme generiert [Quinlan & Cameron-Jones, 1993]. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 33
Integration vor Vorwissen. Übersicht. Restaurantdomäne und Logik
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
Mehr3. Lernen mit Vorwissen
3. Lernen mit Vorwissen Wissen beim Lernen 3. Lernen mit Vorwissen Sei Beschreibungen die Konjunktion aller Beispiele der Trainingsmenge und Klassifizierungen die Konjunktion aller Beispielklassifizierungen.
MehrÜbersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrDeduktion in der Aussagenlogik
Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches. Was folgt logisch aus dieser Theorie? Deduktion: aus
MehrDeduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung
Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches Was folgt logisch aus dieser Theorie? Deduktion: aus
MehrÜbersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)
Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen
MehrÜbersicht. Prädikatenlogik höherer Stufe. Syntax der Prädikatenlogik 1. Stufe (mit Gleichheit)
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern 7. Logische Agenten 8. Prädikatenlogik 1. Stufe 9. Schließen in der Prädikatenlogik 1. Stufe 10. Wissensrepräsentation IV
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrLernen von Klassifikationen
Lernen von Klassifikationen Gegeben: Trainingsbeispiele: Paare der Form (x i, f(x i )) Gesucht: Funktion f, die die Trainingsbeispiele klassifiziert. (a): Lernen mit Trainingsdaten (b): Genauigkeitsüberprüfung
MehrÜbersicht. 9. Schließen in der Prädikatenlogik 1. Stufe
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik
MehrKünstliche Intelligenz Logische Agenten & Resolution
Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 28. Aussagenlogik: DPLL-Algorithmus Malte Helmert Universität Basel 2. Mai 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26. Grundlagen 27. Logisches
MehrResolution für die Aussagenlogik
Resolution für die Aussagenlogik Der Resolutionskakül ist ein Beweiskalkül, der auf Klauselmengen, d.h. Formeln in KNF arbeitet und nur eine Schlußregel besitzt. Der Resolution liegt die folgende Vorstellung
MehrInductive Logic Programming Relational Data Mining
Hauptseminar Machine Learning Inductive Logic Programming Relational Data Mining Christoph Petzinger WS 2003/2004 Inhaltsverzeichnis 1 Relational Data Mining 3 2 Inductive Logic Programming 4 2.1 Prädikatenlogik.................................
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
MehrEvaluierung des Lernalgorithmus
Evaluierung des Lernalgorithmus Anforderungen: Die erzeugten Hypothesen sollen auch (bisher) unbekannte Beispiele korrekt klassifizieren. Untersuchung der Vorhersagequalität von Hypothesen Vorgehen: 1.
MehrÜbersicht. 7. Prädikatenlogik 1. Stufe
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik
MehrData Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende
MehrSymbolisches Lernen. Proseminar Kognitive Robotik. Johannes Klein. Technische Universität München. June 22, 2012
Symbolisches Lernen Proseminar Kognitive Robotik Johannes Klein Technische Universität München June 22, 2012 1/18 Einleitung Lernverfahren Entscheidungsbaum ID3 Diskussion Inhalt Übersicht Symbolisches
MehrNeuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden
Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen
Mehr1 Inhalt der Vorlesung B-PS1
1 Inhalt der Vorlesung B-PS1 1.1 Tag 1 1.1.1 Vormittag Geschichte der Programmiersprachen Wie viele Programmiersprachen gibt es? https://en.wikipedia.org/wiki/list_of_programming_languages Esoterische
MehrMaschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
MehrEigenschaften der Resolution für PL1 Formeln
Eigenschaften der Resolution für PL1 Formeln Widerlegungsvollständigkeit (ohne Beweis): Sofern man Resolution auf eine widersprüchliche Klauselmenge anwendet, so existiert eine endliche Folge von Resolutionsschritten,
MehrInduktive Logikprogrammierung
3. Lernen mit Vorwissen Induktive Logikprogrammierung Induktive Logikprogrammierung Induktive Logikprogrammierung (ILP) kombiniert induktives Lernen mit Repräsentationen in Prädikatenlogik erster Stufe,
MehrLogische und funktionale Programmierung
Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2016/17 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2016/17 1 / 169 Kapitel 5 5. Wissenserwerb
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrTableaukalkül für Aussagenlogik
Tableaukalkül für Aussagenlogik Tableau: Test einer Formel auf Widersprüchlichkeit Fallunterscheidung baumförmig organisiert Keine Normalisierung, d.h. alle Formeln sind erlaubt Struktur der Formel wird
MehrKapitel 6: Logik. Teil 2. (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01)
Kapitel 6: Logik Teil 2 (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01) Künstliche Intelligenz, Kapitel 6 Logik 1 Wdh. Resolution Das Resolutionsprinzip
MehrGrundlagen der Programmierung 2. Operationale Semantik
Grundlagen der Programmierung 2 Operationale Semantik Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 29. April 2009 Semantik von Programmiersprachen Semantik = Bedeutung
Mehr(Logik und) Logikprogrammierung
Übungsaufgaben zur Lehrveranstaltung (Logik und) Logikprogrammierung im Studiengang Informatik Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Fachgebiet Künstliche Intelligenz
MehrGedächtnisprotokoll Diplomprüfung Vertiefungsfach Wissenbasierte Systeme
Gedächtnisprotokoll Diplomprüfung Vertiefungsfach Wissenbasierte Systeme Prüfungsinhalt: Artificial Intelligence (WS ) Knowledge Representation (SS 2002) Logikprogrammierung (WS) Prüfer: Lakemeyer Datum:
MehrGrundlagen der Theoretischen Informatik
FH Wedel Prof. Dr. Sebastian Iwanowski GTI22 Folie 1 Grundlagen der Theoretischen Informatik Sebastian Iwanowski FH Wedel Kap. 2: Logik, Teil 2.2: Prädikatenlogik FH Wedel Prof. Dr. Sebastian Iwanowski
MehrÜbersicht. Wissensbasierte Agenten. Allgemeiner Entwurf eines Agenten (1) Allgemeiner Entwurf eines Agenten (2)
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern 7. Logische Agenten 8. Prädikatenlogik 1. Stufe 9. Schließen in der Prädikatenlogik 1. Stufe 10. Wissensrepräsentation IV
MehrProblem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten
2.6 Verfeinerung der Resolution Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten Resolutions-Strategien: heuristische Regeln für die Auswahl der Resolventen Resolutions-Restriktionen:
Mehr23. Vorlesung: Logisches Schließen Markus Kr otzsch Professur f ur Wissensbasierte Systeme Normalformen
Logik: Glossar FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Professur für Wissensbasierte Systeme TU Dresden, 15. Januar 2018 Atom kleinste mögliche Formel p P Teilformel Unterausdruck,
MehrZusammenfassung. Definition. 1 (x i ) 1 i n Sequenz von Registern x i, die natürliche Zahlen beinhalten. 2 P ein Programm. Befehle: 1 x i := x i + 1
Zusammenfassung Zusammenfassung der letzten LVA Einführung in die Theoretische Informatik Christina Kohl Alexander Maringele Georg Moser Michael Schaper Manuel Schneckenreither Eine Registermaschine (RM)
MehrEinführung in die Theoretische Informatik
Einführung in die Theoretische Informatik Maximilian Haslbeck Fabian Mitterwallner Georg Moser David Obwaller cbr.uibk.ac.at Zusammenfassung der letzten LVA Definition Eine Registermaschine (RM) R ist
MehrAufgabe 13 (Markierungsalgorithmus). Gegeben ist die Formel F = (A D C) (E A) ( ( B D) E) A B (B D)
INTA - Lösungshinweise zum Übungsblatt 4, Version 1.0α. Wenn sie Fehler finden oder Ihnen etwas auch nach dem Gespräch mit ihren Kommilitonen noch unklar ist, dann schicken sie mir bitte eine Email! Aufgabe
MehrResolutionsalgorithmus
112 Resolutionskalkül Mit dem Begriff Kalkül bezeichnet man eine Menge von syntaktischen Umformungsregeln, mit denen man semantische Eigenschaften der Eingabeformel herleiten kann. Für den Resolutionskalkül:
MehrErsetzbarkeitstheorem
Ersetzbarkeitstheorem Die Abgeschlossenheit läßt sich auch folgendermaßen formulieren: Ersetzbarkeitstheorem Seien F und G Formeln mit F G. SeienH und H Formeln, so daß H aus H hervorgeht, indem ein Vorkommen
MehrLogische und funktionale Programmierung
Logische und funktionale Programmierung Vorlesung 2 und 3: Resolution Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 3. November 2017 1/43 HERBRAND-STRUKTUR Sei
MehrGrundlagen 1: Modelle & Mengen
Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2018 > b c a de set S Kapitel 2 Grundlagen 1: Modelle & Mengen Frank Fischer Institut für Informatik frank.fscher@uni-mainz.de
MehrResolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren:
Resolutionskalkül Ein Kalkül ist eine Kollektion von syntaktischen Umformungsregeln, die unter gegebenen Voraussetzungen aus bereits vorhandenen Formeln neue Formeln erzeugen. Der Resolutionskalkül besteht
MehrFormale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln
Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Frank Heitmann heitmann@informatik.uni-hamburg.de 9. Juni 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/36 Ersetzbarkeitstheorem
MehrHA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10. Besprechung in KW02/2019
Technische Universität München Winter 2018/19 Prof. J. Esparza / Dr. M. Luttenberger, C. Welzel 2019/01/11 HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10 Besprechung in KW02/2019 Beachten
MehrMinimalpolynome und Implikanten
Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrErfüllbarkeitstests. Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl.
Erfüllbarkeitstests Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl. Grundlagen und diskrete Strukturen ) Ein für Formeln
MehrGrundlagen 1: Modelle & Mengen
Michael Wand Institut für Informatik. Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2017 > Kapitel 2 Grundlagen 1: Modelle & Mengen 2.1 Modelle Grundlagen der Modellierung
MehrLogikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog
Logikprogrammierung Berechnung durch Resolution Die Programmiersprache Prolog Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 6.1 Logikprogrammierung Berechnung durch Resolution 213 Resolution
MehrPolicy Learning Teil 2. von Susanne Schilling
Policy Teil 2 von Susanne Schilling Ziele des Ansatzes, den ich vorstellen möchte (von Huang, Selman und Kautz): domänenunabhängige Planung Lernen von allgemeinen Regeln zur Suche im Zustandsraum Regeln
MehrWas wissen Sie jetzt?
Was wissen Sie jetzt?! Sie haben drei Prinzipien für die Regelbewertung kennen gelernt:! Unabhängige Mengen sollen mit bewertet werden.! Der Wert soll höher werden, wenn die Regel mehr Belege hat.! Der
MehrAussagenlogik. Formale Methoden der Informatik WiSe 2012/2013 teil 6, folie 1
Aussagenlogik Formale Methoden der Informatik WiSe 22/23 teil 6, folie Teil VI: Aussagenlogik. Einführung 2. Boolesche Funktionen 3. Boolesche Schaltungen Franz-Josef Radermacher & Uwe Schöning, Fakultät
MehrInformatik A. Prof. Dr. Norbert Fuhr auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser
Informatik A Prof. Dr. Norbert Fuhr fuhr@uni-duisburg.de auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser 1 Teil I Logik 2 Geschichte R. Descartes (17. Jhdt): klassische
MehrLogik für Informatiker
Logik für Informatiker Vorlesung 5: Normalformen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 2. November 2017 1/37 MOTIVATION FÜR AUSSAGENLOGIK Aussagenlogik
MehrFORMALE SYSTEME. 23. Vorlesung: Logisches Schließen. TU Dresden, 16. Januar Markus Krötzsch Lehrstuhl Wissensbasierte Systeme
FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 16. Januar 2017 Rückblick Markus Krötzsch, 16. Januar 2017 Formale Systeme Folie 2 von 31
MehrAussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen
Einführung in die Logik - 4 Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen Widerlegungsverfahren zum Aufwärmen: Bestimmung von Tautologien mittels Quick Falsification
MehrLogic in a Nutshell. Christian Liguda
Logic in a Nutshell Christian Liguda Quelle: Kastens, Uwe und Büning, Hans K., Modellierung: Grundlagen und formale Methoden, 2009, Carl Hanser Verlag Übersicht Logik - Allgemein Aussagenlogik Modellierung
MehrRechnerstrukturen. Michael Engel und Peter Marwedel SS TU Dortmund, Fakultät für Informatik
Rechnerstrukturen Michael Engel und Peter Marwedel TU Dortmund, Fakultät für Informatik SS 203 Hinweis: Folien a. d. Basis von Materialien von Gernot Fink und Thomas Jansen 2. Mai 203 Boolesche Funktionen
MehrUniversität Koblenz-Landau Fachbereich Informatik Klausur Einführung in die Künstliche Intelligenz / WS 2003/2004. Jun.-Prof. Dr. B.
Universität Koblenz-Landau Fachbereich Informatik Klausur Einführung in die Künstliche Intelligenz / Künstliche Intelligenz für IM Name, Vorname: Matrikel-Nr.: Studiengang: WS 2003/2004 Jun.-Prof. Dr.
MehrPrädikatenlogische Entscheidbarkeitsprobleme
Prädikatenlogische Entscheidbarkeitsprobleme Erfüllbarkeitsproblem: Gegeben: prädikatenlogischer Ausdruck A über einer Signatur S Frage: Ist A erfüllbar? Gültigkeitsproblem: Gegeben: prädikatenlogischer
Mehr1. Grundlagen. Gliederung 1.1 Was ist Analysis? 1.2 Aussagen und Mengen 1.3 Natürliche Zahlen 1.4 Ganze Zahlen, rationale Zahlen
1. Grundlagen Gliederung 1.1 Was ist Analysis? 1.2 Aussagen und Mengen 1.3 Natürliche Zahlen 1.4 Ganze Zahlen, rationale Zahlen Peter Buchholz 2016 MafI 2 Grundlagen 7 1.1 Was ist Analysis? Analysis ist
Mehr1. Grundlagen. 1.1 Was ist Analysis? 1.2 Aussagen und Mengen
. Grundlagen Gliederung. Was ist Analysis?.2 Aussagen und Mengen.3 Natürliche Zahlen.4 Ganze Zahlen, rationale Zahlen. Was ist Analysis? Analysis ist neben der linearen Algebra ein Grundpfeiler der Mathematik!
MehrSeminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme
Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen
MehrModellierungsmethoden der Informatik Kapitel 2: Logikkalküle
smethoden der Informatik Kapitel 2: Logikkalküle Prädikatenlogik 1. Stufe Norbert Fuhr Gudrun Fischer 29.11.2005 Organisatorisches Organisatorisches Klausur Termin: 20.2.2006, 13-15 Uhr, Audimax Anmeldung
MehrLogik Vorlesung 4: Horn-Logik und Kompaktheit
Logik Vorlesung 4: Horn-Logik und Kompaktheit Andreas Maletti 14. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen
MehrTheorie der Informatik
Theorie der Informatik 2. Beweistechniken Malte Helmert Gabriele Röger Universität Basel 18. Februar 2015 Beweis Beweis Ein Beweis leitet die Korrektheit einer mathematischen Aussage aus einer Menge von
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrKapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln
Kapitel 1.3 Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Mathematische Logik (WS 2011/12) Kapitel 1.3: Normalformen 1/ 29 Übersicht
MehrFormale Systeme. Aussagenlogik: Resolutionskalku l. Prof. Dr. Bernhard Beckert, WS 2018/2019
Formale Systeme Prof. Dr. Bernhard Beckert, WS 2018/2019 Aussagenlogik: Resolutionskalku l KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft
MehrDeduktives Lernen Explanation-Based Learning
Deduktives Lernen Explanation-Based Learning Algorithmus grundlegende Idee anhand eines Beispiels Eigenschaften von EBL Utility Problem Implementierung als PROLOG Meta-Interpreter Operationalisierung 1
MehrLogik für Informatiker Logic for Computer Scientists
Logik für Informatiker Logic for Computer Scientists Till Mossakowski Wintersemester 2014/15 Till Mossakowski Logik 1/ 18 Vollständigkeit der Aussagenlogik Till Mossakowski Logik 2/ 18 Objekt- und Metatheorie
MehrAb 5.11.: Vorlesung im HSG H.001
Rechnerstrukturen WS 202/3 Ab 5..: Vorlesung im HSG H.00 Boolesche Funktionen und Schaltnetze KV-Diagramme Beschreibung und Beispiel Minimalpolynome Algorithmus von Quine und McCluskey Einleitung, Berechnung
MehrKünstliche Intelligenz
George F. Luger 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Künstliche Intelligenz Strategien zur Lösung komplexer
Mehr2.1 Direkter Beweis. Theorie der Informatik. Theorie der Informatik. 2.1 Direkter Beweis. 2.2 Indirekter Beweis
Theorie der Informatik 18. Februar 2015 2. Beweistechniken Theorie der Informatik 2. Beweistechniken 2.1 Direkter Beweis Malte Helmert Gabriele Röger 2.2 Indirekter Beweis Universität Basel 18. Februar
MehrFakultät für Informatik Universität Magdeburg Jürgen Dassow. Vorbemerkungen
Vorbemerkungen if (x > y) z = x; else z = y; Wenn es blaue Tiger regnet, dann fressen alle Kirschbäume schwarze Tomaten. q(1) = 1, q(i) = q(i 1) + 2i 1 für i 2 Welchen Wert hat q(6)? 24 ist durch 2 teilbar.
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
MehrDas Programm ist deterministisch: es gibt für jedes Ziel höchstens eine Klausel, die zur erfolgreichen Ableitung des Zieles
Green Cuts Klauseln zum Mischen zweier geordneten Listen: merge ( [X Xs ], [Y Ys ], [X Zs ] ) : X < Y, merge ( Xs, [ Y Ys ], Zs ). (1) merge ( [X Xs ], [Y Ys ], [ X,Y Zs ] ) : X =:= Y, merge (Xs, Ys, Zs
Mehrfuzzy-entscheidungsbäume
fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian
MehrRalf Möller, TUHH. Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem. Lernziele: Beweisverfahren für Prädikatenlogik
Ralf Möller, TUHH Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem Lernziele: Beweisverfahren für Prädikatenlogik Danksagung Bildmaterial: S. Russell, P. Norvig, Artificial
MehrEindeutigkeit reduzierter Gröbnerbasen
Eindeutigkeit reduzierter Gröbnerbasen Satz Existenz und Eindeutigkeit reduzierter Gröbnerbasen Jedes Ideal I F[x 1,..., x n ] besitzt eine eindeutige reduzierte Gröbnerbasis. Beweis: Existenz: Hilbert
MehrSWP Logische Programme Teil 2
SWP Logische Programme Teil 2 Bernhard Aichernig Institut für Softwaretechnologie aichernig@ist.tugraz.at Institute for Software Technology Inhalt! Motivation! Logische Programme (LP)! Resolution! Unifikation!
MehrLogik für Informatiker
Logik für Informatiker 2. Aussagenlogik Teil 10 4.06.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Organisatorisches Hauptklausur: Montag, 23.07.2012, 16:00-18:00,
MehrKonzepte der AI: Maschinelles Lernen
Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles
MehrEiniges zu Resolutionen anhand der Aufgaben 6 und 7
Einiges zu Resolutionen anhand der Aufgaben 6 und 7 Es gibt eine Fülle von verschiedenen Resolutionen. Die bis jetzt behandelten möchte ich hier noch ein Mal kurz erläutern. Ferner möchte ich noch auf
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 27. Aussagenlogik: Logisches Schliessen und Resolution Malte Helmert Universität Basel 28. April 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26.
MehrMotivation. Formale Grundlagen der Informatik 1 Kapitel 16. Resolution. Motivation. Beispiel
rundlagen und Motivation Formale rundlagen der Informatik 1 Kapitel 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 31. Mai 2016 Motivation Wir benötigen einen (Un-)Erfüllbarkeitstest für aussagenlogische
MehrSLD-Ableitungsbäume. G = B 1... B m. G die Menge aller SLD-Resolventen von G und definiten. G einen Nachfolger, der mit G markiert ist.
SLD-Ableitungsbäume Definition 5.48 Sei P ein definites Programm und G ein definites Ziel. Ein SLD-Ableitungsbaum ist ein Baum, der die folgenden Bedingungen erfüllt: 1. Jeder Knoten des Baums ist mit
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 169
MehrAussagenlogik: Syntax von Aussagen
Aussagenlogik: Syntax von Aussagen A ::= X (A A) (A A) ( A) (A A) (A A) 0 1 Prioritätsreihenfolge :,,,,. A B: Konjunktion (Verundung). A B: Disjunktion (Veroderung). A B: Implikation. A B: Äquivalenz.
MehrLogisches und funktionales Programmieren
Prof. Dr. Christoph Beierle, Dr. Harald Ganzinger, Prof. Dr. Michael Hanus Kurs 01816 Logisches und funktionales Programmieren LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten
MehrLogik für Informatiker
Logik für Informatiker 2. Aussagenlogik Teil 6 14.05.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Bis jetzt Syntax der Aussagenlogik: Definition der Menge
MehrOrdnungsrelationen auf Mengen. Beispiel einer Ordnungsrelation. Spezielle Elemente von Ordnungen. Spezielle Elemente von Ordnungen
Ordnungsrelationen auf Mengen! Eine (partielle) Ordnungsrelation oder kurz Ordnung O auf einer Menge M ist eine Relation, die reflexiv, antisymmetrisch und transitiv ist. Beispiel: M = { 1, 2, 3 }, O =
Mehr