Übersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1

Größe: px
Ab Seite anzeigen:

Download "Übersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1"

Transkript

1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische Lernmethoden 21. Verstärkungslernen VII Kommunizieren, Wahrnehmen und Handeln Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1

2 Integration vor Vorwissen Entscheidungsbaumlernen benötigt als Vorwissen praktisch nur die Annahme, dass die zu lernende Funktion sich gut als möglichst einfacher Entscheidungsbaum ausdrücken lässt In vielen Fällen ist mehr Vorwissen da, das integriert werden sollte. Ein guter Kandidat für dessen Repräsentation ist die Aussagen- bzw. Prädikatenlogik Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 2

3 Restaurantdomäne und Logik Das erste Restaurant-Beispiel kann als logischer Satz geschrieben werden: Alternate (X1) BarX1 Fri/Sat(X1) hungry (X1) Das Ergebnis eines Entscheidungsbaums (Hypothese) kann ebenfalls als logischer Ausdruck notiert werden: Ein neues Beispiel kann mit der Hypothese inkonsistent sein falsch negativ (Hypothese sagt negativ, tatsächlich positiv) falsch positiv (Hypothese sagt positiv, tatsächlich negativ) Inkonsistente Hypothesen: ausschließen bzw. modifizieren Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 3

4 Lernen als Suche nach der aktuell besten Hypothese Lernen kann als Suche im Hypothesenraum betrachtet werden. Eine einfache Suchmethode ist Hill-Climbing mit Backtracking: (Lernen als Suche nach der aktuell besten Hypothese): Wähle zu dem ersten (positiven) Beispiel eine Hypothese und überprüfe sie mit jedem neuen Beispiel. Wenn das Beispiel falsch positiv ist, dann spezialisiere die Hypothese, wenn es falsch negativ ist, dann verallgemeinere die Hypothese, bis alle Beispiele korrekt klassifiziert werden. Nachteile: Bei großen Fallmengen wird es aufwendig, jede Änderung der aktuell besten Hypothese gegenzuprüfen. Es ist schwierig, gute Suchheuristiken zu finden. Backtracking kann sehr aufwendig sein, da der der Suchraum doppelt exponentiell ist. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 4

5 Beispiel für Suche nach aktuell bester Hypothese Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 5

6 Restaurant-Bsp. für Suche nach aktuell bester Hypothese Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 6

7 Least Commitment Suche Statt eine Hypothese zu modifizieren, kann man auch alle mit den Beispielen konsistenten Hypothesen betrachten. Jedes neue Beispiel hat entweder keinen Effekt oder bewirkt eine Eliminierung einiger Hypothesen Hypothesenraum ist eine Disjunktion: H1 H2 H3 Menge der aktuellen Hypothesen ist der "Versionenraum" inkrementeller Algorithmus (bei neuem Beispiel müssen die alten Beispiele nicht angeschaut werden) Least commitment: es werden keine willkürlichen Entscheidungen getroffen, daher kein Backtracking nötig Problem: wie repräsentiert man den riesigen Hypothesenraum? Analogie: wie repräsentiert man alle reellen Zahlen zwischen 1 und 2: durch Intervall [1, 2], da Zahlen geordnet. Lösung: Durch Angabe einer Obergrenze und einer Untergrenze entlang der partiellen Generalisierungs-/Spezialisierungs-Ordnung! Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 7

8 S-Menge und G-Menge Die Obergrenze nennen wird G-Menge (most general boundary; alle allgemeineren Hypothesen sind inkonsistent); die Untergrenze S-Menge (most specific boundary; alle spezielleren Hypothesen sind ebenfalls inkonsistent). Im allgemeinen sind die Mengen eine Disjunktion von Hypothesen, d.h. S-Menge sei S 1 v... v S n G-Menge sei G 1 v... v G m. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 8

9 Versionenraumlernen Algorithmus: Initialisierung: Setze S-Menge auf "Falsch" und G-Menge auf "Wahr". Aktualisierung: Für jedes neue Beispiel B tue: Wenn B falsch positiv für ein S i dann entferne S i aus S-Menge. Wenn B falsch negativ für ein G i dann entferne G i aus G-Menge. Wenn B falsch negativ für ein S i dann ersetze S i durch seine direkten Generalisierungen. Wenn B falsch positiv für ein G i dann ersetze G i durch seine direkten Spezialisierungen. bis einer von 3 Fällen eintritt: 1. Es bleibt nur ein Konzept im Versionenraum übrig -> Lösung 2. Entweder G oder S enthalten die leere Menge -> keine Lösung 3. Es gibt keine Beispiele mehr, ohne das G & S zusammenfallen, viele konsistente Lösungen (alle Hypothesen zwischen G & S) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 9

10 Veranschaulichung des Versionenraumlernens Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 10

11 Diskussion vom Versionenraumlernen Hauptnachteile: 1. Beschränkung der Erzeugung direkter Generalisierungen für Effizienz notwendig im einfachsten Fall nur Unterscheidung zwischen einem bestimmten Wert und "egal" Verbesserung durch vorgegebene Generalisierungshierarchie (z.b. longwait für wait-estimate (x, >60) und (x, 30-60) 2. Unfähigkeit zum Umgang mit verrauschten Daten ( nur begrenzte praktische Einsetzbarkeit). Einsatzbeispiele: Meta-Dendral: Lernprogramm zur Aufklärung von Molekülstrukuren mit Hilfe von Massenspektrogrammen LEX: Lernen der Lösung symbolischer Integrationsprobleme Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 11

12 Vorwissen beim Lernen Traditionelles Lernmodell (bis frühe 80 iger): Hypothese & Beschreibungen = Klassifikationen Beschreibungen: Klassifikationen: Hypothese: alle Beispiele Lösungen der Beispiele soll gelernt werden (stammt aus vordefiniertem Hypothesenraum) Präferenzkriterium: Ockham s razor (bevorzuge einfache Hypothesen). Der moderne Ansatz geht dagegen davon aus, daß der Agent Vorwissen hat und dieses aufgrund seiner Erfahrungen (Beispiele) verbessern will. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 12

13 Beispiele für Vorwissen beim Lernen Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 13

14 Beispiel EBL (Erklärungsbasiertes Lernen) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 14

15 Allgemeine Lernschemata 1. Erklärungsbasiertes Lernen: Es wird kein wirklich neues Wissen gelernt, sondern vorhandenes Wissen effizienter angewendet (Kompilierung des Hintergrundwissen mit Beispielen). Hypothese & Beschreibungen = Klassifikationen Hintergrundwissen = Hypothese 2. Relevanzbasiertes Lernen: Hintergrundwissen hilft, die Bedeutung von Eigenschaften der Hypothese zu bestimmen. Hypothese & Beschreibungen = Klassifikationen Hintergrundwissen& Beschreibungen& Klassifikationen = Hypothese 3. Wissensbasiertes induktives Lernen: Das Hintergrundwissen wird durch die neue Hypothese erweitert. Hintergrundwissen& Hypothese& Beschreibungen = Klassifikationen Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 15

16 Erklärungsbasiertes Lernen (EBL) Vorläufertechnik: Memorieren Die Ergebnisse komplexer Berechnungen werden in einer Datenbank (Hashtabelle) von Ein-/Ausgabe Paaren gespeichert. Vor jeder Berechnung wird nachgeschaut, ob das Ergebnis schon in der Datenbank vorhanden ist. EBL verallgemeinert Ein-/Ausgabe Paare zu Regeln, die auch in ähnlichen Situationen angewendet werden können. Triviales Beispiel: Unbekannte u => Ableitung (u², u) = 2u Philosophischer Hintergrund: Whitehead (1911): Die Zivilisation schreitet dadurch voran, dass sie die Anzahl wichtiger Operationen vermehrt, die wir ohne Nachdenken durchführen können. Es ist einfacher, zu erklären, warum etwas eine gute Idee ist, als auf die Idee zu kommen. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 16

17 Schritte des Erklärungsbasierten Lernens 1. Wenn ein Beispiel gegeben ist, konstruiere dafür den Beweisbaum mittels des Hintergrundwissen. 2. Verallgemeinere den Beweisbaum, indem im Zielausdruck Konstanten durch Variablen ersetzt werden. 3. Erzeuge eine neue Regel, deren Vorbedingung die Blätter im Beweisbaum sind, und deren Nachbedingung der verallgemeinerte Zielausdruck ist. 4. Entferne alle Vorbedingungen, die unabhängig von den Variablen des Zielausdrucks wahr sind. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 17

18 Beispiel EBL Problem: Vereinfache 1 * (0 + x) Wissensbasis enthält Regeln wie: hergeleiteter Beweis: s. Baum rechts oben Baum rechts unten: Verallgemeinerung des Beweisbaums mit Ersetzung der Variablen hergeleitete Regel: ArithmeticUnknown z Simplify (1 * (0 + z), z) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 18

19 Effizienzüberlegungen beim EBL 1. Zu viele Regeln können den Ableitungsprozess verlangsamen, da vor jeder neuen Ableitung erst alle bekannten Regeln überprüft werden. 2. Anwendbare Regeln sollen einen großen Effizienzgewinn bringen. 3. Regeln sollen so allgemein wie möglich formuliert werden, aber gleichzeitig möglichst operational sein (Kompromiss erforderlich). Komplexes Optimierungsproblem (unter der Annahme, dass zukünftige ähnlich wie bereits gelöste Probleme sind) Anwendungsbeispiel: Bei einem Prolog-basierten Sprachübersetzungssystem Schwedisch Englisch berichten Samuelsson und Rayner (1991) von einem Effizienzgewinn um den Faktor 1200 durch EBL. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 19

20 Relevanzbasiertes Lernen Relevanzbasiertes Lernen basiert auf funktionellen Abhängigkeiten (ähnlich wie in Normalformen bei Datenbanken), z.b. Nationalität (x,n) determiniert Sprache (x,s) in PK1: x,y,n,s Nation(x,n) Nation(y,n) Sprache(x,s) Sprache(y,s) Der Gewinn ist eine Reduktion des Suchraumes bei n Boolschen Merkmalen mit d funktionalen Abhängigkeiten von 2 n auf 2 n-d notwendigen Beispielen, um die Hypothese ohne Bias lernen zu können (mit Bias ist der Vorteil geringer, aber immer noch beträchtlich). einfacher Algorithmus zum Lernen minimaler funktioneller Abhängigkeiten Man betrachtet in der Beispielmenge erst ein- dann zweielementige Abhängigkeiten usw. bis eine minimale Menge gefunden wird, die das Zielattribut vorhersagt. Aufwand ist exponentiell zu der Länge der minimalen Abhängigkeiten. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 20

21 Beispiel Vorgehen zur Herleitung einer Determination von Leitfähigkeit (conductance): Probiere erst die 5 Attribute einzeln: kein Erfolg dann 2-Kombinationen: Erfolg bei Material Temperatur dann ggf. 3-Kombination außer Übermengen erfolgreicher kleinerer Determinationen: Erfolg bei Masse Größe (size) Temperatur (aber trivial) Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 21

22 Relevanzbasiertes Entscheidungsbaum-Lernen Vergleich von relevanzbasiertem (RBDTL) mit normalem (DTL) Entscheidungsbaumlernen bei zufällig generierten Datensätzen, bei denen die Zielfunktion von nur 5 von 16 Attributen abhängt. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 22

23 Probleme beim relevanzbasierten Lernen Wie behandelt man Rauschen? Wie behandelt man Variablen mit kontinuierlichen Werten? Wie kann anderes Apriori-Wissen aus Determinationen genutzt werden? Kann der Algorithmus verallgemeinert werden, so dass er auch andere Repräsentationen außer Attribut-Wert umfasst? Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 23

24 Beispiel für induktives logisches Programmieren Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 24

25 Induktives Logisches Programmieren (1) Induktives logisches Programmieren basiert auf Prädikatenlogik (Hornlogik) statt auf Attribut-Wert-Repräsentationen und ist daher mächtiger. Beispiel: Vater (Philip, Charles) Vater (Philip, Anne)... Mutter (Mum, Margaret) Mutter (Mum, Elizabeth)... Verheiratet (Diana, Charles) Verheiratet (Elizabeth, Philip)... Männlich (Philip) Weiblich (Beatrice)... Gelernt werden soll z.b. das Konzept Großeltern aus Beispielen Großelter (Mum, Charles) Großelter (Elizabeth, Beatrice)... Großelter (Mum, Harry) Großelter (Spencer, Peter)... Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 25

26 Induktives Logisches Programmieren (2) Zielfunktion: Großelter (x, y) Es gibt z mit Mutter (x,z) Mutter (z, y) oder Mutter (x,z) Vater (z, y) oder Vater (x,z) Mutter (z, y) oder Vater (x,z) Vater (z, y) Mit Hintergrundwissen der Art: Elter (x,y) Mutter (x,y) Vater (x,y) ließe sich Großelter viel einfacher definieren: Großelter (x, y) z mit Elter (x,z) & Elter (z, y) Wie kommt man auf neue Prädikate?: konstruktive Induktion Zwei Ansätze zum induktiven logischen Programmieren: 1. Inverse Resolution 2. Verallgemeinerung der Entscheidungsbaum-Methoden Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 26

27 Inverse Resolution Normale Resolution: 2 Klauseln C 1 und C 2 produzieren Resolvent C. Man fügt die negierte Zielklausel zur Klauselmenge hinzu und leitet einen Widerspruch her. Inverse Resolution: Aus C 1 und C wird C 2 hergeleitet. Man startet bei einem Widerspruch und arbeitet mit der negierten Zielklausel rückwärts, bis man einen korrekten Beweisbaum zusammen hat. Problem: Riesiger Suchraum bei inverser Resolution. Entdecken neuer Prädikate: Da bei normaler Resolution Prädikate wegresolviert werden können, können bei inverser Resolution grundsätzlich auch neue Prädikate erfunden werden. Anwendung: GOLEM, das die Faltung von Proteinen aufgrund von Sequenzinformationen und Medikamenten zur Blockade von Proteinen relativ gut vorhersagt [Muggleton et al. 92, King et al. 92]. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 27

28 Beispiel: Inverse Resolution Generieren neuer Prädikate Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 28

29 Beispiel (Fortsetzung): inverse Resolution Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 29

30 Top-Down Lernverfahren (1) Verallgemeinerung von Entscheidungsbaum-Lernverfahren. Ähnlich wie Entscheidungsbäume durch Einfügen neuer Entscheidungsknoten wachsen, so können auch Klauselmengen wachsen, bis sie alle Beispiele richtig klassifizieren. Beispiel aus FOIL [Quinlan 90]: Gelernt werden soll das Prädikat: Großvater (x,y) Positive Beispiele: (George, Anne), (Philip, Peter), (Spencer, Harry)... Negative Beispiele: (Mum, Elizabeth), (Harry, Zarah), (Charles, Philip)... FOIL generiert eine Klauselmenge (in Hornlogik) mit Großvater (x,y) als Kopf, so dass die positiven Beispiele hergeleitet werden können und die negativen nicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 30

31 Top-Down Lernverfahren (2) Start: Generiere eine Klausel mit einem leeren Rumpf Großvater (x,y) Da die Klausel alle Beispiele als positiv klassifiziert, muss sie spezialisiert werden, z.b. 1. Vater (x,y) Großvater (x,y) 2. Elter (x,z) Großvater (x, y) [Elter gehört zum Hintergrundwissen] 3. Vater (x,z) Großvater (x,y) zu 1.: alle positiven Beispiele werden als negativ klassifiziert zu 2. und 3.: alle positiven Beispielen werden richtig klassifiziert, aber 3. hat weniger negative Beispiele als positiv gekennzeichnet und wird deswegen vorgezogen. Zu 3. ist weitere Spezialisierung erforderlich, z.b. Vater (x,z) & Elter (z,y) => Großvater (x,z) Da diese Klausel keine negativen Beispiel überdeckt, wird sie gewählt. Da alle positiven Beispiele überdeckt sind, terminiert der Algorithmus. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 31

32 Kritische Schritte in FOIL Generierung neuer Kandidaten-Literale in einer zu spezialisierenden Klausel, z.b. Erweiterung von Vater (x,z) Großvater (x,y) 3 Arten Literalen können hinzugefügt werden: - Literale, die Prädikate enthalten, wobei mindestens eine Variable in einem vorhandenen Literal enthalten sein muß, z.b. Mutter (z,u), Verheiratet (z,z), aber nicht verheiratet(u,v). - Gleichheits- und Ungleichheits-Literale, die Variablen aus den vorhandenen Literalen oder Konstanten betreffen müssen, z.b. z y. - Arithmetische Vergleiche (falls Funktionen mit kontinuierlichen Variablen vorhanden sind, z.b. x > y oder x > 100). Auch hier ergibt sich ein riesiger Verzweigungsfaktor. Auswahl des besten Literals (Choose-Literal): Ähnliche Heuristiken wie beim Informations-Gewinn des Entscheidungsbaum-Lernen. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 32

33 Pruning und Anwendung von FOIL Klauseln werden eliminiert, wenn sie länger sind als die Beispiele, die sie erklären. Anwendung: Programm, was aus Beispielen korrekte Prolog-Programme generiert [Quinlan & Cameron-Jones, 1993]. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 33

Integration vor Vorwissen. Übersicht. Restaurantdomäne und Logik

Integration vor Vorwissen. Übersicht. Restaurantdomäne und Logik Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

3. Lernen mit Vorwissen

3. Lernen mit Vorwissen 3. Lernen mit Vorwissen Wissen beim Lernen 3. Lernen mit Vorwissen Sei Beschreibungen die Konjunktion aller Beispiele der Trainingsmenge und Klassifizierungen die Konjunktion aller Beispielklassifizierungen.

Mehr

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Deduktion in der Aussagenlogik

Deduktion in der Aussagenlogik Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches. Was folgt logisch aus dieser Theorie? Deduktion: aus

Mehr

Deduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung

Deduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches Was folgt logisch aus dieser Theorie? Deduktion: aus

Mehr

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2) Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen

Mehr

Übersicht. Prädikatenlogik höherer Stufe. Syntax der Prädikatenlogik 1. Stufe (mit Gleichheit)

Übersicht. Prädikatenlogik höherer Stufe. Syntax der Prädikatenlogik 1. Stufe (mit Gleichheit) Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern 7. Logische Agenten 8. Prädikatenlogik 1. Stufe 9. Schließen in der Prädikatenlogik 1. Stufe 10. Wissensrepräsentation IV

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

Lernen von Klassifikationen

Lernen von Klassifikationen Lernen von Klassifikationen Gegeben: Trainingsbeispiele: Paare der Form (x i, f(x i )) Gesucht: Funktion f, die die Trainingsbeispiele klassifiziert. (a): Lernen mit Trainingsdaten (b): Genauigkeitsüberprüfung

Mehr

Übersicht. 9. Schließen in der Prädikatenlogik 1. Stufe

Übersicht. 9. Schließen in der Prädikatenlogik 1. Stufe Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik

Mehr

Künstliche Intelligenz Logische Agenten & Resolution

Künstliche Intelligenz Logische Agenten & Resolution Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 28. Aussagenlogik: DPLL-Algorithmus Malte Helmert Universität Basel 2. Mai 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26. Grundlagen 27. Logisches

Mehr

Resolution für die Aussagenlogik

Resolution für die Aussagenlogik Resolution für die Aussagenlogik Der Resolutionskakül ist ein Beweiskalkül, der auf Klauselmengen, d.h. Formeln in KNF arbeitet und nur eine Schlußregel besitzt. Der Resolution liegt die folgende Vorstellung

Mehr

Inductive Logic Programming Relational Data Mining

Inductive Logic Programming Relational Data Mining Hauptseminar Machine Learning Inductive Logic Programming Relational Data Mining Christoph Petzinger WS 2003/2004 Inhaltsverzeichnis 1 Relational Data Mining 3 2 Inductive Logic Programming 4 2.1 Prädikatenlogik.................................

Mehr

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

Evaluierung des Lernalgorithmus

Evaluierung des Lernalgorithmus Evaluierung des Lernalgorithmus Anforderungen: Die erzeugten Hypothesen sollen auch (bisher) unbekannte Beispiele korrekt klassifizieren. Untersuchung der Vorhersagequalität von Hypothesen Vorgehen: 1.

Mehr

Übersicht. 7. Prädikatenlogik 1. Stufe

Übersicht. 7. Prädikatenlogik 1. Stufe Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik

Mehr

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende

Mehr

Symbolisches Lernen. Proseminar Kognitive Robotik. Johannes Klein. Technische Universität München. June 22, 2012

Symbolisches Lernen. Proseminar Kognitive Robotik. Johannes Klein. Technische Universität München. June 22, 2012 Symbolisches Lernen Proseminar Kognitive Robotik Johannes Klein Technische Universität München June 22, 2012 1/18 Einleitung Lernverfahren Entscheidungsbaum ID3 Diskussion Inhalt Übersicht Symbolisches

Mehr

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen

Mehr

1 Inhalt der Vorlesung B-PS1

1 Inhalt der Vorlesung B-PS1 1 Inhalt der Vorlesung B-PS1 1.1 Tag 1 1.1.1 Vormittag Geschichte der Programmiersprachen Wie viele Programmiersprachen gibt es? https://en.wikipedia.org/wiki/list_of_programming_languages Esoterische

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:

Mehr

Eigenschaften der Resolution für PL1 Formeln

Eigenschaften der Resolution für PL1 Formeln Eigenschaften der Resolution für PL1 Formeln Widerlegungsvollständigkeit (ohne Beweis): Sofern man Resolution auf eine widersprüchliche Klauselmenge anwendet, so existiert eine endliche Folge von Resolutionsschritten,

Mehr

Induktive Logikprogrammierung

Induktive Logikprogrammierung 3. Lernen mit Vorwissen Induktive Logikprogrammierung Induktive Logikprogrammierung Induktive Logikprogrammierung (ILP) kombiniert induktives Lernen mit Repräsentationen in Prädikatenlogik erster Stufe,

Mehr

Logische und funktionale Programmierung

Logische und funktionale Programmierung Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2016/17 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2016/17 1 / 169 Kapitel 5 5. Wissenserwerb

Mehr

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

Tableaukalkül für Aussagenlogik

Tableaukalkül für Aussagenlogik Tableaukalkül für Aussagenlogik Tableau: Test einer Formel auf Widersprüchlichkeit Fallunterscheidung baumförmig organisiert Keine Normalisierung, d.h. alle Formeln sind erlaubt Struktur der Formel wird

Mehr

Kapitel 6: Logik. Teil 2. (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01)

Kapitel 6: Logik. Teil 2. (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01) Kapitel 6: Logik Teil 2 (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01) Künstliche Intelligenz, Kapitel 6 Logik 1 Wdh. Resolution Das Resolutionsprinzip

Mehr

Grundlagen der Programmierung 2. Operationale Semantik

Grundlagen der Programmierung 2. Operationale Semantik Grundlagen der Programmierung 2 Operationale Semantik Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 29. April 2009 Semantik von Programmiersprachen Semantik = Bedeutung

Mehr

(Logik und) Logikprogrammierung

(Logik und) Logikprogrammierung Übungsaufgaben zur Lehrveranstaltung (Logik und) Logikprogrammierung im Studiengang Informatik Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Fachgebiet Künstliche Intelligenz

Mehr

Gedächtnisprotokoll Diplomprüfung Vertiefungsfach Wissenbasierte Systeme

Gedächtnisprotokoll Diplomprüfung Vertiefungsfach Wissenbasierte Systeme Gedächtnisprotokoll Diplomprüfung Vertiefungsfach Wissenbasierte Systeme Prüfungsinhalt: Artificial Intelligence (WS ) Knowledge Representation (SS 2002) Logikprogrammierung (WS) Prüfer: Lakemeyer Datum:

Mehr

Grundlagen der Theoretischen Informatik

Grundlagen der Theoretischen Informatik FH Wedel Prof. Dr. Sebastian Iwanowski GTI22 Folie 1 Grundlagen der Theoretischen Informatik Sebastian Iwanowski FH Wedel Kap. 2: Logik, Teil 2.2: Prädikatenlogik FH Wedel Prof. Dr. Sebastian Iwanowski

Mehr

Übersicht. Wissensbasierte Agenten. Allgemeiner Entwurf eines Agenten (1) Allgemeiner Entwurf eines Agenten (2)

Übersicht. Wissensbasierte Agenten. Allgemeiner Entwurf eines Agenten (1) Allgemeiner Entwurf eines Agenten (2) Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern 7. Logische Agenten 8. Prädikatenlogik 1. Stufe 9. Schließen in der Prädikatenlogik 1. Stufe 10. Wissensrepräsentation IV

Mehr

Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten

Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten 2.6 Verfeinerung der Resolution Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten Resolutions-Strategien: heuristische Regeln für die Auswahl der Resolventen Resolutions-Restriktionen:

Mehr

23. Vorlesung: Logisches Schließen Markus Kr otzsch Professur f ur Wissensbasierte Systeme Normalformen

23. Vorlesung: Logisches Schließen Markus Kr otzsch Professur f ur Wissensbasierte Systeme Normalformen Logik: Glossar FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Professur für Wissensbasierte Systeme TU Dresden, 15. Januar 2018 Atom kleinste mögliche Formel p P Teilformel Unterausdruck,

Mehr

Zusammenfassung. Definition. 1 (x i ) 1 i n Sequenz von Registern x i, die natürliche Zahlen beinhalten. 2 P ein Programm. Befehle: 1 x i := x i + 1

Zusammenfassung. Definition. 1 (x i ) 1 i n Sequenz von Registern x i, die natürliche Zahlen beinhalten. 2 P ein Programm. Befehle: 1 x i := x i + 1 Zusammenfassung Zusammenfassung der letzten LVA Einführung in die Theoretische Informatik Christina Kohl Alexander Maringele Georg Moser Michael Schaper Manuel Schneckenreither Eine Registermaschine (RM)

Mehr

Einführung in die Theoretische Informatik

Einführung in die Theoretische Informatik Einführung in die Theoretische Informatik Maximilian Haslbeck Fabian Mitterwallner Georg Moser David Obwaller cbr.uibk.ac.at Zusammenfassung der letzten LVA Definition Eine Registermaschine (RM) R ist

Mehr

Aufgabe 13 (Markierungsalgorithmus). Gegeben ist die Formel F = (A D C) (E A) ( ( B D) E) A B (B D)

Aufgabe 13 (Markierungsalgorithmus). Gegeben ist die Formel F = (A D C) (E A) ( ( B D) E) A B (B D) INTA - Lösungshinweise zum Übungsblatt 4, Version 1.0α. Wenn sie Fehler finden oder Ihnen etwas auch nach dem Gespräch mit ihren Kommilitonen noch unklar ist, dann schicken sie mir bitte eine Email! Aufgabe

Mehr

Resolutionsalgorithmus

Resolutionsalgorithmus 112 Resolutionskalkül Mit dem Begriff Kalkül bezeichnet man eine Menge von syntaktischen Umformungsregeln, mit denen man semantische Eigenschaften der Eingabeformel herleiten kann. Für den Resolutionskalkül:

Mehr

Ersetzbarkeitstheorem

Ersetzbarkeitstheorem Ersetzbarkeitstheorem Die Abgeschlossenheit läßt sich auch folgendermaßen formulieren: Ersetzbarkeitstheorem Seien F und G Formeln mit F G. SeienH und H Formeln, so daß H aus H hervorgeht, indem ein Vorkommen

Mehr

Logische und funktionale Programmierung

Logische und funktionale Programmierung Logische und funktionale Programmierung Vorlesung 2 und 3: Resolution Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 3. November 2017 1/43 HERBRAND-STRUKTUR Sei

Mehr

Grundlagen 1: Modelle & Mengen

Grundlagen 1: Modelle & Mengen Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2018 > b c a de set S Kapitel 2 Grundlagen 1: Modelle & Mengen Frank Fischer Institut für Informatik frank.fscher@uni-mainz.de

Mehr

Resolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren:

Resolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren: Resolutionskalkül Ein Kalkül ist eine Kollektion von syntaktischen Umformungsregeln, die unter gegebenen Voraussetzungen aus bereits vorhandenen Formeln neue Formeln erzeugen. Der Resolutionskalkül besteht

Mehr

Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln

Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Frank Heitmann heitmann@informatik.uni-hamburg.de 9. Juni 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/36 Ersetzbarkeitstheorem

Mehr

HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10. Besprechung in KW02/2019

HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10. Besprechung in KW02/2019 Technische Universität München Winter 2018/19 Prof. J. Esparza / Dr. M. Luttenberger, C. Welzel 2019/01/11 HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10 Besprechung in KW02/2019 Beachten

Mehr

Minimalpolynome und Implikanten

Minimalpolynome und Implikanten Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny

Mehr

Erfüllbarkeitstests. Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl.

Erfüllbarkeitstests. Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl. Erfüllbarkeitstests Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl. Grundlagen und diskrete Strukturen ) Ein für Formeln

Mehr

Grundlagen 1: Modelle & Mengen

Grundlagen 1: Modelle & Mengen Michael Wand Institut für Informatik. Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2017 > Kapitel 2 Grundlagen 1: Modelle & Mengen 2.1 Modelle Grundlagen der Modellierung

Mehr

Logikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog

Logikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog Logikprogrammierung Berechnung durch Resolution Die Programmiersprache Prolog Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 6.1 Logikprogrammierung Berechnung durch Resolution 213 Resolution

Mehr

Policy Learning Teil 2. von Susanne Schilling

Policy Learning Teil 2. von Susanne Schilling Policy Teil 2 von Susanne Schilling Ziele des Ansatzes, den ich vorstellen möchte (von Huang, Selman und Kautz): domänenunabhängige Planung Lernen von allgemeinen Regeln zur Suche im Zustandsraum Regeln

Mehr

Was wissen Sie jetzt?

Was wissen Sie jetzt? Was wissen Sie jetzt?! Sie haben drei Prinzipien für die Regelbewertung kennen gelernt:! Unabhängige Mengen sollen mit bewertet werden.! Der Wert soll höher werden, wenn die Regel mehr Belege hat.! Der

Mehr

Aussagenlogik. Formale Methoden der Informatik WiSe 2012/2013 teil 6, folie 1

Aussagenlogik. Formale Methoden der Informatik WiSe 2012/2013 teil 6, folie 1 Aussagenlogik Formale Methoden der Informatik WiSe 22/23 teil 6, folie Teil VI: Aussagenlogik. Einführung 2. Boolesche Funktionen 3. Boolesche Schaltungen Franz-Josef Radermacher & Uwe Schöning, Fakultät

Mehr

Informatik A. Prof. Dr. Norbert Fuhr auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser

Informatik A. Prof. Dr. Norbert Fuhr auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser Informatik A Prof. Dr. Norbert Fuhr fuhr@uni-duisburg.de auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser 1 Teil I Logik 2 Geschichte R. Descartes (17. Jhdt): klassische

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker Vorlesung 5: Normalformen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 2. November 2017 1/37 MOTIVATION FÜR AUSSAGENLOGIK Aussagenlogik

Mehr

FORMALE SYSTEME. 23. Vorlesung: Logisches Schließen. TU Dresden, 16. Januar Markus Krötzsch Lehrstuhl Wissensbasierte Systeme

FORMALE SYSTEME. 23. Vorlesung: Logisches Schließen. TU Dresden, 16. Januar Markus Krötzsch Lehrstuhl Wissensbasierte Systeme FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 16. Januar 2017 Rückblick Markus Krötzsch, 16. Januar 2017 Formale Systeme Folie 2 von 31

Mehr

Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen

Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen Einführung in die Logik - 4 Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen Widerlegungsverfahren zum Aufwärmen: Bestimmung von Tautologien mittels Quick Falsification

Mehr

Logic in a Nutshell. Christian Liguda

Logic in a Nutshell. Christian Liguda Logic in a Nutshell Christian Liguda Quelle: Kastens, Uwe und Büning, Hans K., Modellierung: Grundlagen und formale Methoden, 2009, Carl Hanser Verlag Übersicht Logik - Allgemein Aussagenlogik Modellierung

Mehr

Rechnerstrukturen. Michael Engel und Peter Marwedel SS TU Dortmund, Fakultät für Informatik

Rechnerstrukturen. Michael Engel und Peter Marwedel SS TU Dortmund, Fakultät für Informatik Rechnerstrukturen Michael Engel und Peter Marwedel TU Dortmund, Fakultät für Informatik SS 203 Hinweis: Folien a. d. Basis von Materialien von Gernot Fink und Thomas Jansen 2. Mai 203 Boolesche Funktionen

Mehr

Universität Koblenz-Landau Fachbereich Informatik Klausur Einführung in die Künstliche Intelligenz / WS 2003/2004. Jun.-Prof. Dr. B.

Universität Koblenz-Landau Fachbereich Informatik Klausur Einführung in die Künstliche Intelligenz / WS 2003/2004. Jun.-Prof. Dr. B. Universität Koblenz-Landau Fachbereich Informatik Klausur Einführung in die Künstliche Intelligenz / Künstliche Intelligenz für IM Name, Vorname: Matrikel-Nr.: Studiengang: WS 2003/2004 Jun.-Prof. Dr.

Mehr

Prädikatenlogische Entscheidbarkeitsprobleme

Prädikatenlogische Entscheidbarkeitsprobleme Prädikatenlogische Entscheidbarkeitsprobleme Erfüllbarkeitsproblem: Gegeben: prädikatenlogischer Ausdruck A über einer Signatur S Frage: Ist A erfüllbar? Gültigkeitsproblem: Gegeben: prädikatenlogischer

Mehr

1. Grundlagen. Gliederung 1.1 Was ist Analysis? 1.2 Aussagen und Mengen 1.3 Natürliche Zahlen 1.4 Ganze Zahlen, rationale Zahlen

1. Grundlagen. Gliederung 1.1 Was ist Analysis? 1.2 Aussagen und Mengen 1.3 Natürliche Zahlen 1.4 Ganze Zahlen, rationale Zahlen 1. Grundlagen Gliederung 1.1 Was ist Analysis? 1.2 Aussagen und Mengen 1.3 Natürliche Zahlen 1.4 Ganze Zahlen, rationale Zahlen Peter Buchholz 2016 MafI 2 Grundlagen 7 1.1 Was ist Analysis? Analysis ist

Mehr

1. Grundlagen. 1.1 Was ist Analysis? 1.2 Aussagen und Mengen

1. Grundlagen. 1.1 Was ist Analysis? 1.2 Aussagen und Mengen . Grundlagen Gliederung. Was ist Analysis?.2 Aussagen und Mengen.3 Natürliche Zahlen.4 Ganze Zahlen, rationale Zahlen. Was ist Analysis? Analysis ist neben der linearen Algebra ein Grundpfeiler der Mathematik!

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

Modellierungsmethoden der Informatik Kapitel 2: Logikkalküle

Modellierungsmethoden der Informatik Kapitel 2: Logikkalküle smethoden der Informatik Kapitel 2: Logikkalküle Prädikatenlogik 1. Stufe Norbert Fuhr Gudrun Fischer 29.11.2005 Organisatorisches Organisatorisches Klausur Termin: 20.2.2006, 13-15 Uhr, Audimax Anmeldung

Mehr

Logik Vorlesung 4: Horn-Logik und Kompaktheit

Logik Vorlesung 4: Horn-Logik und Kompaktheit Logik Vorlesung 4: Horn-Logik und Kompaktheit Andreas Maletti 14. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen

Mehr

Theorie der Informatik

Theorie der Informatik Theorie der Informatik 2. Beweistechniken Malte Helmert Gabriele Röger Universität Basel 18. Februar 2015 Beweis Beweis Ein Beweis leitet die Korrektheit einer mathematischen Aussage aus einer Menge von

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Kapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln

Kapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Kapitel 1.3 Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Mathematische Logik (WS 2011/12) Kapitel 1.3: Normalformen 1/ 29 Übersicht

Mehr

Formale Systeme. Aussagenlogik: Resolutionskalku l. Prof. Dr. Bernhard Beckert, WS 2018/2019

Formale Systeme. Aussagenlogik: Resolutionskalku l. Prof. Dr. Bernhard Beckert, WS 2018/2019 Formale Systeme Prof. Dr. Bernhard Beckert, WS 2018/2019 Aussagenlogik: Resolutionskalku l KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft

Mehr

Deduktives Lernen Explanation-Based Learning

Deduktives Lernen Explanation-Based Learning Deduktives Lernen Explanation-Based Learning Algorithmus grundlegende Idee anhand eines Beispiels Eigenschaften von EBL Utility Problem Implementierung als PROLOG Meta-Interpreter Operationalisierung 1

Mehr

Logik für Informatiker Logic for Computer Scientists

Logik für Informatiker Logic for Computer Scientists Logik für Informatiker Logic for Computer Scientists Till Mossakowski Wintersemester 2014/15 Till Mossakowski Logik 1/ 18 Vollständigkeit der Aussagenlogik Till Mossakowski Logik 2/ 18 Objekt- und Metatheorie

Mehr

Ab 5.11.: Vorlesung im HSG H.001

Ab 5.11.: Vorlesung im HSG H.001 Rechnerstrukturen WS 202/3 Ab 5..: Vorlesung im HSG H.00 Boolesche Funktionen und Schaltnetze KV-Diagramme Beschreibung und Beispiel Minimalpolynome Algorithmus von Quine und McCluskey Einleitung, Berechnung

Mehr

Künstliche Intelligenz

Künstliche Intelligenz George F. Luger 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Künstliche Intelligenz Strategien zur Lösung komplexer

Mehr

2.1 Direkter Beweis. Theorie der Informatik. Theorie der Informatik. 2.1 Direkter Beweis. 2.2 Indirekter Beweis

2.1 Direkter Beweis. Theorie der Informatik. Theorie der Informatik. 2.1 Direkter Beweis. 2.2 Indirekter Beweis Theorie der Informatik 18. Februar 2015 2. Beweistechniken Theorie der Informatik 2. Beweistechniken 2.1 Direkter Beweis Malte Helmert Gabriele Röger 2.2 Indirekter Beweis Universität Basel 18. Februar

Mehr

Fakultät für Informatik Universität Magdeburg Jürgen Dassow. Vorbemerkungen

Fakultät für Informatik Universität Magdeburg Jürgen Dassow. Vorbemerkungen Vorbemerkungen if (x > y) z = x; else z = y; Wenn es blaue Tiger regnet, dann fressen alle Kirschbäume schwarze Tomaten. q(1) = 1, q(i) = q(i 1) + 2i 1 für i 2 Welchen Wert hat q(6)? 24 ist durch 2 teilbar.

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Das Programm ist deterministisch: es gibt für jedes Ziel höchstens eine Klausel, die zur erfolgreichen Ableitung des Zieles

Das Programm ist deterministisch: es gibt für jedes Ziel höchstens eine Klausel, die zur erfolgreichen Ableitung des Zieles Green Cuts Klauseln zum Mischen zweier geordneten Listen: merge ( [X Xs ], [Y Ys ], [X Zs ] ) : X < Y, merge ( Xs, [ Y Ys ], Zs ). (1) merge ( [X Xs ], [Y Ys ], [ X,Y Zs ] ) : X =:= Y, merge (Xs, Ys, Zs

Mehr

fuzzy-entscheidungsbäume

fuzzy-entscheidungsbäume fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian

Mehr

Ralf Möller, TUHH. Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem. Lernziele: Beweisverfahren für Prädikatenlogik

Ralf Möller, TUHH. Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem. Lernziele: Beweisverfahren für Prädikatenlogik Ralf Möller, TUHH Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem Lernziele: Beweisverfahren für Prädikatenlogik Danksagung Bildmaterial: S. Russell, P. Norvig, Artificial

Mehr

Eindeutigkeit reduzierter Gröbnerbasen

Eindeutigkeit reduzierter Gröbnerbasen Eindeutigkeit reduzierter Gröbnerbasen Satz Existenz und Eindeutigkeit reduzierter Gröbnerbasen Jedes Ideal I F[x 1,..., x n ] besitzt eine eindeutige reduzierte Gröbnerbasis. Beweis: Existenz: Hilbert

Mehr

SWP Logische Programme Teil 2

SWP Logische Programme Teil 2 SWP Logische Programme Teil 2 Bernhard Aichernig Institut für Softwaretechnologie aichernig@ist.tugraz.at Institute for Software Technology Inhalt! Motivation! Logische Programme (LP)! Resolution! Unifikation!

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker 2. Aussagenlogik Teil 10 4.06.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Organisatorisches Hauptklausur: Montag, 23.07.2012, 16:00-18:00,

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Einiges zu Resolutionen anhand der Aufgaben 6 und 7

Einiges zu Resolutionen anhand der Aufgaben 6 und 7 Einiges zu Resolutionen anhand der Aufgaben 6 und 7 Es gibt eine Fülle von verschiedenen Resolutionen. Die bis jetzt behandelten möchte ich hier noch ein Mal kurz erläutern. Ferner möchte ich noch auf

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 27. Aussagenlogik: Logisches Schliessen und Resolution Malte Helmert Universität Basel 28. April 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26.

Mehr

Motivation. Formale Grundlagen der Informatik 1 Kapitel 16. Resolution. Motivation. Beispiel

Motivation. Formale Grundlagen der Informatik 1 Kapitel 16. Resolution. Motivation. Beispiel rundlagen und Motivation Formale rundlagen der Informatik 1 Kapitel 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 31. Mai 2016 Motivation Wir benötigen einen (Un-)Erfüllbarkeitstest für aussagenlogische

Mehr

SLD-Ableitungsbäume. G = B 1... B m. G die Menge aller SLD-Resolventen von G und definiten. G einen Nachfolger, der mit G markiert ist.

SLD-Ableitungsbäume. G = B 1... B m. G die Menge aller SLD-Resolventen von G und definiten. G einen Nachfolger, der mit G markiert ist. SLD-Ableitungsbäume Definition 5.48 Sei P ein definites Programm und G ein definites Ziel. Ein SLD-Ableitungsbaum ist ein Baum, der die folgenden Bedingungen erfüllt: 1. Jeder Knoten des Baums ist mit

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 169

Mehr

Aussagenlogik: Syntax von Aussagen

Aussagenlogik: Syntax von Aussagen Aussagenlogik: Syntax von Aussagen A ::= X (A A) (A A) ( A) (A A) (A A) 0 1 Prioritätsreihenfolge :,,,,. A B: Konjunktion (Verundung). A B: Disjunktion (Veroderung). A B: Implikation. A B: Äquivalenz.

Mehr

Logisches und funktionales Programmieren

Logisches und funktionales Programmieren Prof. Dr. Christoph Beierle, Dr. Harald Ganzinger, Prof. Dr. Michael Hanus Kurs 01816 Logisches und funktionales Programmieren LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker 2. Aussagenlogik Teil 6 14.05.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Bis jetzt Syntax der Aussagenlogik: Definition der Menge

Mehr

Ordnungsrelationen auf Mengen. Beispiel einer Ordnungsrelation. Spezielle Elemente von Ordnungen. Spezielle Elemente von Ordnungen

Ordnungsrelationen auf Mengen. Beispiel einer Ordnungsrelation. Spezielle Elemente von Ordnungen. Spezielle Elemente von Ordnungen Ordnungsrelationen auf Mengen! Eine (partielle) Ordnungsrelation oder kurz Ordnung O auf einer Menge M ist eine Relation, die reflexiv, antisymmetrisch und transitiv ist. Beispiel: M = { 1, 2, 3 }, O =

Mehr