Induktive Logikprogrammierung

Größe: px
Ab Seite anzeigen:

Download "Induktive Logikprogrammierung"

Transkript

1 3. Lernen mit Vorwissen Induktive Logikprogrammierung Induktive Logikprogrammierung Induktive Logikprogrammierung (ILP) kombiniert induktives Lernen mit Repräsentationen in Prädikatenlogik erster Stufe, insbesondere Horn- Klauseln. Vorteile von ILP: Strenger Ansatz für das allgemeine induktive Lernproblem. Vollständige Algorithmen für die Ableitung allgemeiner Theorien erster Stufe. Die erzeugten Hypothesen sind für Menschen leicht verständlich. wesentlicher Unterschied zu Black-Box-Methoden wie z.b. neuronale Netze Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 130

2 3. Lernen mit Vorwissen Induktive Logikprogrammierung H:3[71-84] H:5[ ] H:1[19-37] H:6[79-88] H:4[61-64] H:5[66-70] H:2[26-33] H:1[8-17] E:2[96-98] E:1[57-59] H:7[99-106] H:4[93-108] H:2[41-64] H:3[40-50] 1omd - EF-Hand 2mhr - Four-helical up-and-down bundle Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 131

3 3. Lernen mit Vorwissen Induktive Logikprogrammierung Beispiel 3.5. Die beiden Grafiken der vorangegangenen Folie zeigen positive und negative Beispiele des 4-Helix-Auf/Ab-Bündel -Konzepts der Proteinfaltung. Jede Beispielstruktur ist in einem logischen Ausdruck von ca. 100 Konjunkten codiert. Daraus sowie aus Klassifizierungen für die Beispiele hat das ILP-System Progol (Muggleton, 1995) die folgende Regel gelernt: Entfalten(FourHelicalUpAndDownBundle, p) Helix(p,h 1 ) Länge(h 1, High) Position(p, h 1,n) (1 n 3) Benachbart(p, h 1,h 2 ) Helix(p,h 2 ). Interpretation: Das Protein P hat die Entfaltungsklasse 4-Helix- Auf/Ab-Bündel, wenn sie eine lange Helix h 1 an einer sekundären Strukturposition zwischen 1 und 3 besitzt und h 1 sich neben einer zweiten Helix befindet. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 132

4 3. Lernen mit Vorwissen Induktive Logikprogrammierung Prinzipielle Vorgehensweise bei ILP Induktive Logikprogrammierung basiert auf Vorwissen Hypothese Beschreibungen = Klassifizierungen wobei die Hypothese unbekannt und der Rest bekannt ist (Vorwissen). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 133

5 3. Lernen mit Vorwissen Induktive Logikprogrammierung Einführendes Beispiel zur ILP Wir wollen Prädikate über Familienverhältnisse lernen. Beispielbeschreibungen: Vater(Philip, Charles) Mutter(Mum, Margaret) Verheiratet(Diana, Charles) Männlich(Philip) Vater(Philip, Anne) Mutter(Mum, Elizabeth) Verheiratet(Elizabeth, Philip) Weiblich(Beatrice) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 134

6 3. Lernen mit Vorwissen Induktive Logikprogrammierung Klassifizierungen hängen vom zu lernenden Zielkonzept ab, z.b. Großeltern: Großeltern(Mum, Charles) Großeltern(Elizabeth, Beatrice) Großeltern(Mum, Harry) Großeltern(Spencer, Peter) George Mum Spencer Kydd Elizabeth Philip Margaret Diana Charles Anne Mark Andrew Sarah Edward William Harry Peter Zara Beatrice Eugenie Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 135

7 3. Lernen mit Vorwissen Induktive Logikprogrammierung Konsistente Hypothese: Großeltern(x, y) [ z Mutter(x, z) Mutter(z, y)] [ z Mutter(x, z) Vater(z, y)] [ z Vater(x, z) Mutter(z, y)] [ z Vater(x, z) Vater(z, y)] Ein attributbasiertes Lernverfahren (wie beispielsweise die Generierung von Entscheidungsbäumen) wäre nicht in der Lage, solch ein relationales Prädikat zu lernen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 136

8 3. Lernen mit Vorwissen Induktive Logikprogrammierung Mit dem Vorwissen Eltern(x, y) [Mutter(x, y) Vater(x, y)] würde die Definition von Großeltern reduziert auf: Großeltern(x, y) [ z Eltern(x, z) Eltern(z, y)] Wie kommen wir zu solch einer konsistenten Hypothese? Zwei Ansätze: 1. FOIL: Verallgemeinerung von Entscheidungsbaummethoden 2. Invertierung eines Resolutionsbeweises Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 137

9 FOIL: First-Order Inductive Logic Vorgehensweise: Beginne mit einer sehr allgemeinen Regel und spezialisiere diese schrittweise, so daß sie stets mit den Beispielen übereinstimmt. Für die Induktive Logikprogrammierung verwenden wir Literale der Prädikatenlogik ersten Stufe. Die Hypothese ist eine Menge von Klauseln. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 138

10 Beispiel 3.6. Für den Familienstammbaum von Folie 134 wollen wir eine Definition für Großvater(x, y) lernen. Jedes Paar von Objekten liefert ein Beispiel. Hier 20 * 20 = 400 Beispiele, davon 12 positiv. FOIL konstruiert eine Menge von Klauseln mit dem zu lernenden Prädikat Großvater(x, y) als Kopf. Die Klauseln sind Hornklauseln erweitert um negierte Literale. Die initiale Klausel hat einen leeren Rumpf (leere Prämisse): Großvater(x, y) Damit werden alle Beispiele als positiv klassifiziert. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 139

11 Damit negative Beispiele nicht als positiv klassifiziert werden, muss die Klausel spezialisiert werden. Dazu werden Literale auf der linken Seite eingefügt, z.b.: Vater(x, y) Großvater(x, y) Eltern(x, z) Großvater(x, y) Vater(x, z) Großvater(x, y) Literale werden aus bekannten Prädikaten generiert, sie stammen somit aus dem Hintergrundwissen. Die erste Klausel klassifiziert alle positiven Beispiele als negativ und ist somit nicht brauchbar. Die zweite und die dritte Klausel stimmen mit allen positiven Beispielen überein, die zweite ist aber für einen großen Teil der Negativen falsch. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 140

12 Wir nehmen die dritte Klausel und müssen weiter spezialisieren. Das Einfügen des einzelnen Literals Eltern(z, y) ergibt: Vater(x, z) Eltern(z, y) Großvater(x, y) womit alle Beispiele korrekt klassifiziert werden. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 141

13 FOIL-Algorithmus Algorithmus 3.1. FOIL-Algorithmus für das Lernen von Horn-Klauselmengen. Die Funktion FOIL erzeugt eine Menge von Horn-Klauseln (Regelmenge). function FOIL(examples, target) returns eine Menge von Horn-Klauseln while examples enthält positive Beispiele do clause NEW-CLAUSE(examples, target) von clause abgedeckte Beispiele aus examples entfernen clause in clauses einfügen return clauses Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 142

14 Die Funktion NEW-CLAUSE erzeugt eine einzelne Horn-Klausel. function NEW-CLAUSE(examples, target) returns eine Horn-Klausel extend examples examples while extend examples negative Beispiele enthält do l CHOOSE-LITERAL(NEW-LITERALS(clause), extend examples) l dem rumpf von clause hinzufügen extend examples Beispielmenge, die durch Anwendung von EXTEND-EXAMPLES auf jedes Beispiel in extend examples erzeugt wurde return clause Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 143

15 function EXTEND-EXAMPLES(example, literal) returns if example erfüllt literal then return die Beispielmenge, die durch Extension von example mit jedem möglichen Konstantenwert für jede neue Variable in literal erzeugt wurde. else return die leere Menge Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 144

16 Erzeugung von Literalen NEW-LITERALS nimmt eine Klausel entgegen und konstruiert alle sinnvollen Literale, die der Klausel hinzugefügt werden können. Sei die Klausel R definiert durch L 1,...,L n P(x 1,...,x k ) Daraus soll R generiert werden in der Form L 1,...,L n, L P(x 1,...,x k ) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 145

17 Für L gibt es drei Arten von Literalen: 1. Q(v 1,...,v r ) wobei Q ein existierendes Prädikat ist und die v i alle verschiedene Variablen; mindestens eine davon muss schon in R vorkommen; Negation ist auch erlaubt. 2. Gleichheits- oder Ungleichheitsliterale, z.b. x i = x j, wobei beide Variablen schon in R vorkommen müssen. 3. Arithmetische Vergleiche, z.b. x c, wobei c ein numerischer Wert ist. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 146

18 Erläuterungen und Beispiele zu FOIL Äußere und innere Schleife Die äußere Schleife findet für positive Beispiele bzw. Tupel T + eine Klausel, die diese abdeckt. Die abgedeckten positiven Beispiele werden aus der Tupelmenge entfernt. Für die verbleibenden positiven Beispiele wird eine weitere Klausel gelernt. Es werden so viele Klauseln gelernt, wie notwendig ist, um alle positiven Beispiele abzudecken. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 147

19 In der inneren Schleife wird der Körper einer Klausel durch Literale erweitert, die Klausel also spezialisiert und zwar solange, bis die Klausel keine negativen Beispiele mehr falsch klassifiziert. Vorgehensweise: Setze i = 1 und initialisiere T i mit den Beispieltupeln. Solange T Tupel enthält: Finde ein nützliches Literal L i und füge es dem Klauselkörper hinzu, Erstelle eine neue Tupelmenge T i+1, die nur diejenigen Beispiele enthält, für die L i gilt. Falls L i eine neue Variable einführt, werden die Tupel um diese erweitert. Die Klassifikation der Tupel in T i+1 bleibt die von T i. i := i + 1 Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 148

20 Auswahl von Literalen Ein zusätzliches Literal wird beispielsweise aufgrund des Informationsgewinns ausgewählt, den es für die Charakterisierung des Zielprädikats erbringt. Bewertung des Informationsgewinns: FoilGain(L, R) = t ( log 2 p i+1 p i+1 + n i+1 log 2 p i p i + n i ) p i+1 bzw. n i+1 ist die Anzahl der positiven bzw. negativen Tupel in T i+1, analog p i bzw. n i. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 149

21 t bezeichnet die Anzahl von Beispielen, für die alle Bedingungen von R erfüllt sind, eingeschränkt auf die Variablen in R. t dient zur Gewichtung. Anschaulich ausgedrückt handelt es sich um die Anzahl der positiven Beispiele, die nach Hinzunahme von L immer noch abgedeckt werden. Es können explizit positive und negative Beispiele gegeben sein. Dann wird mit diesen gearbeitet. Falls nur positive Beispiele gegeben sind, geht man von der Closed World Assumption (CWA) aus, d.h. alles was nicht explizit positiv ist, ist negativ. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 150

22 Beispiel 3.7. Fakten: eltern(x, Y) (ann,mary) (ann,tom) (tom,eve) (tom,ian) weiblich(x) (mary) (ann) (eve) Es soll das Prädikat tochter(x, Y) gelernt werden. Trainingsmenge: tochter(x, Y) Klassifikation (mary,ann) + (eve,tom) + (tom,ann) (eve,ann) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 151

23 Zunächst enthält die Klausel nur das Zielprädikat tochter(x, Y) als Klauselkopf: tochter(x, Y) Die Menge T 1 enthält alle 4 Tupel, p 1 = 2, n 1 = 2, der Informationsgehalt ist I(T 1 ) = log = 1. Wir erweitern den Klauselkörper um weiblich(x): weiblich(x) tochter(x, Y) T 2 enthält nun nicht mehr (tom,ann). Damit gilt I(T 2 ) = log = Der Informationsgewinn von weiblich(x) ist also: FoilGain(weiblich(X), tochter(x, Y)) = 2( ) = 0.84 Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 152

24 Wird nun noch eltern(y, X) als nächstes Literal hinzugefügt, weiblich(x) eltern(y, X) tochter(x, Y) so brauchen wir bei der Tupelmenge T 3 keine weitere Information für die Klassifikation: I(T 3 ) = 0. Der Informationsgewinn ist damit: FoilGain(eltern(Y, X), weiblich(x) tochter(x, Y)) = 2( ) = 1.16 Die aktuelle Klausel deckt alle positiven Beispiele ab. Da in T 3 auch kein negatives Beispiel mehr enthalten ist, endet die innere Schleife. Damit ist die erste Iteration der äußeren Schleife abgeschlossen. Alle positiven Beispiele, die durch die gefundene Klausel abgedeckt sind, werden aus der Beispielmenge entfernt. Da dies alle sind, endet auch die äußere Schleife. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 153

25 Beispiel 3.8. Fakten: enkelin(x, Y) vater(x, Y) weiblich(x) (hannah,manfred) (frieder,hannah) (hannah) (frieder,florian) (manfred,frieder) Es soll das Prädikat enkelin(x, Y) gelernt werden. Es gilt die Closed World Assumption (CWA). Wir haben vier Objekte/Konstanten (florian, frieder, hannah, manfred). Wir beginnen mit: enkelin(x, Y) Damit haben wir ein positives und 15 negative Beispiele. Übersicht über die Kandidatenliterale: Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 154

26 Literal p i n i p i+1 n i+1 t FoilGain X = Y weiblich(x) weiblich(y) vater(x, Y) vater(y, X) vater(x, Z) vater(z, X) vater(y, Z) vater(z, Y) X Y weiblich(x) weiblich(y) vater(x, Y) vater(y, X) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 155

27 weiblich(x) liefert den größten Informationsgewinn und wird selektiert. Fortführung des Beispiels: Beispiel 3.9. Dieses Beispiel stammt aus dem Orginalartikel zu Foil: J.R. Quinlan, Learning Logical Definitions from Relations, Machine Learning, Vol. 5, (1990) Für einen gerichteten azyklischen Graph lerne man das Prädikat weg(x,y). Gegeben sind die gerichteten Kanten als Fakten der Form kante(x, Y). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 156

28 Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 157

29 Bewertung von FOIL Vorteile: mächtige Beschreibungssprache für Konzepte kann logische Programme (Prolog) aus Beispielen lernen kann Hintergrundwissen verarbeiten Nachteile: Hohe Komplexität der Suche. Die Anzahl der zu untersuchenden Literale steigt exponentiell mit der Stelligkeit der Prädikate. Die Größe der lokalen Trainingsmenge steigt exponentiell mit der Anzahl der neuen Variablen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 158

30 Typisierte Prädikate Zur Einschränkung der Komplexität: Jedem Argument der Prädikate wird ein Typ zugeordnet. Konsequenz: Bestimmte Kombinationen von Variablen im Klauselrumpf sind nicht mehr zugelassen. Die Anzahl der hinzufügbaren Literale wird begrenzt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 159

31 3. Lernen mit Vorwissen Inverse Resolution Induktives Lernen mit inversem Schließen Der zweite ILP-Ansatz ist die inverse Resolution. Grundidee: Wenn gilt: Vorwissen Hypothese Beschreibungen = Klassifizierungen dann muß man in der Lage sein, dies durch Resolution zu beweisen. Wenn wir den Beweis rückwärts ausführen, können wir eine Hypothese finden, so daß der Beweis möglich ist. Umkehrung des Resolutionsprozesses. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 160

32 3. Lernen mit Vorwissen Inverse Resolution Resolution in PL1 Es seien K 1, K 2 PL1-Klauseln. Die Klausel R heißt PL1-Resolvente von K 1 und K 2 gdw. folgendes gilt: (a) K 1 und K 2 haben keine gemeinsamen Variablen. (b) Es gibt positive Literale A 1,...,A k K 1, ein negatives Literal A K 2 und einen allgemeinsten Unifikator σ von A,A 1,...A k. (c) R hat die folgende Form: σ((k 1 \ {A 1,...,A k }) (K 2 \ { A})) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 161

33 3. Lernen mit Vorwissen Inverse Resolution Inverser Resolutionsschritt Ein inverser Resolutionsschritt nimmt eine Resolvente R und erzeugt zwei Klauseln K 1 und K 2, so daß R das Ergebnis der Resolution von K 1 und K 2 ist. Alternativ kann man eine Resolvente R und eine Klausel K 1 nehmen sowie eine Klausel K 2 erzeugen, so daß R das Ergebnis der Resolution von K 1 und K 2 ist. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 162

34 3. Lernen mit Vorwissen Inverse Resolution Parent(x,z) > Parent(z,y) > Grandparent(x,y) Parent(George,Elizabeth) {x/george, z/elizabeth} Parent(Elizabeth,y) > Grandparent(George,y) Parent(Elizabeth,Anne) {y/anne} Grandparent(George,Anne) Grandparent(George,Anne) Der Prozess beginnt am Ende des Beweises. Der erste inverse Schritt nimmt die leere Klausel als Resolvente R und geht von Großeltern(George, Anne) als negiertes Ziel K 2 aus. Die Klausel Großeltern(George, Anne) wird als K 1 erzeugt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 163

35 3. Lernen mit Vorwissen Inverse Resolution Der nächste Schritt: R : Großeltern(George, Anne) K 1 : Eltern(Elizabeth, Anne) erzeugt wird K 2 : Eltern(Elizabeth, y) Großeltern(George, y) Substitution: {y/anne} Der letzte Schritt: R : Eltern(Elizabeth, y) Großeltern(George, y) K 1 : Eltern(George, Elizabeth) erzeugt wird: K 2 : Eltern(x, z) Eltern(z, y) Großeletern(x, y) Substitution: {x/george, z/elizabeth} Jetzt haben wir einen Resolutionsbeweis, daß Hypothese, Beschreibungen und Hintergrundwissen die Klassifizierung Großeltern(George, Anne) als logische Konsequenz haben. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 164

36 3. Lernen mit Vorwissen Inverse Resolution Inverse Resolutonssysteme können auch neue Prädikate einführen: Father(x,y) > P(x,y) > P(George,y) Ancestor(George,y) {x/george} > Father(George,y) Ancestor(George,y) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 165

37 3. Lernen mit Vorwissen Inverse Resolution Zusammenfassung Vorwissen kann beim Lernen helfen: kumulatives Lernen, schnelleres Lernen Bedingung der logischen Konsequenz EBL: Lernen durch verallgemeinerte Erklärungen von Beispielen RBL: Vorwissen in Form von Feststellungen, um relevante Attribute zu identifizieren. KBIL: sucht nach Hypothesen, die Beispiele mit Hilfe von Hintergrundwissen erklären. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 166

38 3. Lernen mit Vorwissen Inverse Resolution ILP: KBIL für die Prädikatenlogik oder Horn-Logik Methoden für ILP: Foil, inverse Resolution Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 167

Inductive Logic Programming Relational Data Mining

Inductive Logic Programming Relational Data Mining Hauptseminar Machine Learning Inductive Logic Programming Relational Data Mining Christoph Petzinger WS 2003/2004 Inhaltsverzeichnis 1 Relational Data Mining 3 2 Inductive Logic Programming 4 2.1 Prädikatenlogik.................................

Mehr

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen

Mehr

Übersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Integration vor Vorwissen. Übersicht. Restaurantdomäne und Logik

Integration vor Vorwissen. Übersicht. Restaurantdomäne und Logik Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

3. Lernen mit Vorwissen

3. Lernen mit Vorwissen 3. Lernen mit Vorwissen Wissen beim Lernen 3. Lernen mit Vorwissen Sei Beschreibungen die Konjunktion aller Beispiele der Trainingsmenge und Klassifizierungen die Konjunktion aller Beispielklassifizierungen.

Mehr

Eigenschaften der Resolution für PL1 Formeln

Eigenschaften der Resolution für PL1 Formeln Eigenschaften der Resolution für PL1 Formeln Widerlegungsvollständigkeit (ohne Beweis): Sofern man Resolution auf eine widersprüchliche Klauselmenge anwendet, so existiert eine endliche Folge von Resolutionsschritten,

Mehr

Kapitel VI.2. Induktives logisches Programmieren (ILP)

Kapitel VI.2. Induktives logisches Programmieren (ILP) Kapitel VI.2 Induktives logisches Programmieren (ILP) Institut AIFB, 2002. Alle Rechte vorbehalten. Nachdruck oder photomechanische Wiedergabe nur mit Genehmigung des Verfassers. Zuwiderhandlungen unterliegen

Mehr

Policy Learning Teil 2. von Susanne Schilling

Policy Learning Teil 2. von Susanne Schilling Policy Teil 2 von Susanne Schilling Ziele des Ansatzes, den ich vorstellen möchte (von Huang, Selman und Kautz): domänenunabhängige Planung Lernen von allgemeinen Regeln zur Suche im Zustandsraum Regeln

Mehr

Künstliche Intelligenz Logische Agenten & Resolution

Künstliche Intelligenz Logische Agenten & Resolution Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein

Mehr

Logische und funktionale Programmierung

Logische und funktionale Programmierung Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Resolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren:

Resolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren: Resolutionskalkül Ein Kalkül ist eine Kollektion von syntaktischen Umformungsregeln, die unter gegebenen Voraussetzungen aus bereits vorhandenen Formeln neue Formeln erzeugen. Der Resolutionskalkül besteht

Mehr

Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln

Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Frank Heitmann heitmann@informatik.uni-hamburg.de 9. Juni 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/36 Ersetzbarkeitstheorem

Mehr

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37 Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/37 Modellierungsaufgabe Es gibt drei Tauben und zwei Löcher. Jede Taube soll in

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 28. Aussagenlogik: DPLL-Algorithmus Malte Helmert Universität Basel 2. Mai 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26. Grundlagen 27. Logisches

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

Prolog basiert auf Prädikatenlogik

Prolog basiert auf Prädikatenlogik Software-Technologie Software-Systeme sind sehr komplex. Im Idealfall erfolgt die Programmierung problemorientiert, während die notwendige Übertragung in ausführbare Programme automatisch erfolgt. Prolog-Philosophie:

Mehr

Evaluierung des Lernalgorithmus

Evaluierung des Lernalgorithmus Evaluierung des Lernalgorithmus Anforderungen: Die erzeugten Hypothesen sollen auch (bisher) unbekannte Beispiele korrekt klassifizieren. Untersuchung der Vorhersagequalität von Hypothesen Vorgehen: 1.

Mehr

Resolution für die Aussagenlogik

Resolution für die Aussagenlogik Resolution für die Aussagenlogik Der Resolutionskakül ist ein Beweiskalkül, der auf Klauselmengen, d.h. Formeln in KNF arbeitet und nur eine Schlußregel besitzt. Der Resolution liegt die folgende Vorstellung

Mehr

Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten

Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten 2.6 Verfeinerung der Resolution Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten Resolutions-Strategien: heuristische Regeln für die Auswahl der Resolventen Resolutions-Restriktionen:

Mehr

Logikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog

Logikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog Logikprogrammierung Berechnung durch Resolution Die Programmiersprache Prolog Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 6.1 Logikprogrammierung Berechnung durch Resolution 213 Resolution

Mehr

Wozu formale Logik? Programmiersprachen Logik im Fingerhut. Formeln. Logik im Fingerhut (24. Januar 2005) Belegung und Interpretation

Wozu formale Logik? Programmiersprachen Logik im Fingerhut. Formeln. Logik im Fingerhut (24. Januar 2005) Belegung und Interpretation Wozu formale Logik? Logik im Fingerhut Studiengang Informatik Universität Bremen präzise Beschreibung von Aussagen über die Welt bzw. über verschiedene Welten Ziehen und Überprüfen von Schlussfolgerungen

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 27. Aussagenlogik: Logisches Schliessen und Resolution Malte Helmert Universität Basel 28. April 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26.

Mehr

Logik-Grundlagen. Syntax der Prädikatenlogik

Logik-Grundlagen. Syntax der Prädikatenlogik Logik-Grundlagen X 1 :...: X k : ( A 1 A 2... A m B 1 B 2... B n ) Logische und funktionale Programmierung - Universität Potsdam - M. Thomas - Prädikatenlogik III.1 Syntax der Prädikatenlogik Prädikat:

Mehr

Labor Compilerbau. Jan Hladik. Sommersemester DHBW Stuttgart. Jan Hladik (DHBW Stuttgart) Labor Compilerbau Sommersemester / 20

Labor Compilerbau. Jan Hladik. Sommersemester DHBW Stuttgart. Jan Hladik (DHBW Stuttgart) Labor Compilerbau Sommersemester / 20 Labor Compilerbau Jan Hladik DHBW Stuttgart Sommersemester 2017 Jan Hladik (DHBW Stuttgart) Labor Compilerbau Sommersemester 2017 1 / 20 Resolution in der Prädikatenlogik testet Erfüllbarkeit (indirekt

Mehr

GDI Medieninformatik. 13. VL: Einführung in die mathematische Logik Prädikatenlogik (II)

GDI Medieninformatik. 13. VL: Einführung in die mathematische Logik Prädikatenlogik (II) GDI Medieninformatik 13. VL: Einführung in die mathematische Logik Prädikatenlogik (II) Prädikatenlogik erster Stufe (FOL): Syntax: Sprachelemente 27.01.2008 GDI - Logik 2 FOL: Syntax 27.01.2008 GDI -

Mehr

Künstliche Intelligenz Hornklauseln & Prolog

Künstliche Intelligenz Hornklauseln & Prolog Künstliche Intelligenz Hornklauseln & Prolog Stephan Schwiebert WS 2007/2008 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Terminologie (A B C) E Rumpf einer Klausel

Mehr

FORMALE SYSTEME. 23. Vorlesung: Logisches Schließen. TU Dresden, 16. Januar Markus Krötzsch Lehrstuhl Wissensbasierte Systeme

FORMALE SYSTEME. 23. Vorlesung: Logisches Schließen. TU Dresden, 16. Januar Markus Krötzsch Lehrstuhl Wissensbasierte Systeme FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 16. Januar 2017 Rückblick Markus Krötzsch, 16. Januar 2017 Formale Systeme Folie 2 von 31

Mehr

Klauselmengen. Definition Sei

Klauselmengen. Definition Sei Klauselmengen Definition 2.38 Sei α = (p 11... p 1k1 )... (p n1... p nkn ) eine in aussagenlogische Formel in KNF. Dann heißen die Mengen {p i1,..., p iki }, 1 i n, der jeweils disjunktiv verknüpften Literale

Mehr

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende

Mehr

Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen

Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen Einführung in die Logik - 4 Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen Widerlegungsverfahren zum Aufwärmen: Bestimmung von Tautologien mittels Quick Falsification

Mehr

Formale Systeme. Aussagenlogik: Resolutionskalku l. Prof. Dr. Bernhard Beckert, WS 2018/2019

Formale Systeme. Aussagenlogik: Resolutionskalku l. Prof. Dr. Bernhard Beckert, WS 2018/2019 Formale Systeme Prof. Dr. Bernhard Beckert, WS 2018/2019 Aussagenlogik: Resolutionskalku l KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft

Mehr

Lernen mit Logik und Relationen. Volker Tresp

Lernen mit Logik und Relationen. Volker Tresp Lernen mit Logik und Relationen Volker Tresp 1 Mustererkennung Betrachten wir Klassifikatoren, deren Zielgröße mit Sicherheit vorhergesagt werden kann, so kann man diese als Wenn-Dann Regel interpretieren:

Mehr

Deduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung

Deduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches Was folgt logisch aus dieser Theorie? Deduktion: aus

Mehr

23. Vorlesung: Logisches Schließen Markus Kr otzsch Professur f ur Wissensbasierte Systeme Normalformen

23. Vorlesung: Logisches Schließen Markus Kr otzsch Professur f ur Wissensbasierte Systeme Normalformen Logik: Glossar FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Professur für Wissensbasierte Systeme TU Dresden, 15. Januar 2018 Atom kleinste mögliche Formel p P Teilformel Unterausdruck,

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Deduktion in der Aussagenlogik

Deduktion in der Aussagenlogik Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches. Was folgt logisch aus dieser Theorie? Deduktion: aus

Mehr

Markov Logik. Matthias Balwierz Seminar: Maschinelles Lernen WS 2009/2010 Prof. Fürnkranz

Markov Logik. Matthias Balwierz Seminar: Maschinelles Lernen WS 2009/2010 Prof. Fürnkranz Markov Logik Matthias Balwierz Seminar: Maschinelles Lernen WS 2009/2010 Prof. Fürnkranz Überblick Markov Netze Prädikatenlogik erster Stufe Markov Logik Inferenz Lernen Anwendungen Software 18.11.2009

Mehr

Logik für Informatiker

Logik für Informatiker Vorlesung Logik für Informatiker 12. Prädikatenlogik Resolution Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Zur Erinnerung Definition: Aussagenlogische

Mehr

Logik. Gabriele Kern-Isberner LS 1 Information Engineering. TU Dortmund Wintersemester 2014/15 WS 2014/15

Logik. Gabriele Kern-Isberner LS 1 Information Engineering. TU Dortmund Wintersemester 2014/15 WS 2014/15 Logik Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2014/15 WS 2014/15 G. Kern-Isberner (TU Dortmund) Logik WS 2014/15 1 / 263 Übersicht Prädikatenlogik 8. Strukturen &

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny

Mehr

Berechnung von Abständen

Berechnung von Abständen 3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.

Mehr

Logik Vorlesung 4: Horn-Logik und Kompaktheit

Logik Vorlesung 4: Horn-Logik und Kompaktheit Logik Vorlesung 4: Horn-Logik und Kompaktheit Andreas Maletti 14. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany), Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Informatik A. Prof. Dr. Norbert Fuhr auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser

Informatik A. Prof. Dr. Norbert Fuhr auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser Informatik A Prof. Dr. Norbert Fuhr fuhr@uni-duisburg.de auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser 1 Teil I Logik 2 Geschichte R. Descartes (17. Jhdt): klassische

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

5. Bäume und Minimalgerüste

5. Bäume und Minimalgerüste 5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein

Mehr

Aussagenlogik: Syntax von Aussagen

Aussagenlogik: Syntax von Aussagen Aussagenlogik: Syntax von Aussagen A ::= X (A A) (A A) ( A) (A A) (A A) 0 1 Prioritätsreihenfolge :,,,,. A B: Konjunktion (Verundung). A B: Disjunktion (Veroderung). A B: Implikation. A B: Äquivalenz.

Mehr

Modellierungsmethoden der Informatik Kapitel 2: Logikkalküle

Modellierungsmethoden der Informatik Kapitel 2: Logikkalküle smethoden der Informatik Kapitel 2: Logikkalküle Prädikatenlogik 1. Stufe Norbert Fuhr Gudrun Fischer 29.11.2005 Organisatorisches Organisatorisches Klausur Termin: 20.2.2006, 13-15 Uhr, Audimax Anmeldung

Mehr

Ralf Möller, TUHH. Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem. Lernziele: Beweisverfahren für Prädikatenlogik

Ralf Möller, TUHH. Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem. Lernziele: Beweisverfahren für Prädikatenlogik Ralf Möller, TUHH Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem Lernziele: Beweisverfahren für Prädikatenlogik Danksagung Bildmaterial: S. Russell, P. Norvig, Artificial

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker 2. Aussagenlogik Teil 5 14.05.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Bis jetzt Normalformen Atome, Literale, Klauseln Konjunktive

Mehr

HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10. Besprechung in KW02/2019

HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10. Besprechung in KW02/2019 Technische Universität München Winter 2018/19 Prof. J. Esparza / Dr. M. Luttenberger, C. Welzel 2019/01/11 HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10 Besprechung in KW02/2019 Beachten

Mehr

Zusammenfassung Syntax: Formale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Hornformeln. Zusammenfassung

Zusammenfassung Syntax: Formale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Hornformeln. Zusammenfassung Formale der Informatik 1 Kapitel 15 und Frank Heitmann heitmann@informatik.uni-hamburg.de 30. Mai 2016 Zusammenfassung Syntax Zusammenfassung Syntax: Motivation Definition der Syntax: Alphabet, Junktor

Mehr

SLD-Ableitungsbäume. G = B 1... B m. G die Menge aller SLD-Resolventen von G und definiten. G einen Nachfolger, der mit G markiert ist.

SLD-Ableitungsbäume. G = B 1... B m. G die Menge aller SLD-Resolventen von G und definiten. G einen Nachfolger, der mit G markiert ist. SLD-Ableitungsbäume Definition 5.48 Sei P ein definites Programm und G ein definites Ziel. Ein SLD-Ableitungsbaum ist ein Baum, der die folgenden Bedingungen erfüllt: 1. Jeder Knoten des Baums ist mit

Mehr

Aussagenlogik Prädikatenlogik erster Stufe. Logik. Logik

Aussagenlogik Prädikatenlogik erster Stufe. Logik. Logik Grundzeichen Aussagenlogik Aussagenvariablen P, Q, R,... Junktoren nicht und oder Runde Klammern (, ) Formeln Aussagenlogik Formeln sind spezielle Zeichenreihen aus Grundzeichen, und zwar 1 Jede Aussagenvariable

Mehr

Logische und funktionale Programmierung

Logische und funktionale Programmierung Logische und funktionale Programmierung Vorlesung 2 und 3: Resolution Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 3. November 2017 1/43 HERBRAND-STRUKTUR Sei

Mehr

Formale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Hornformeln

Formale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Hornformeln Formale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Frank Heitmann heitmann@informatik.uni-hamburg.de 30. Mai 2016 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/42 Zusammenfassung Syntax

Mehr

Modellierungsmethoden der Informatik Kapitel 2: Logikkalküle

Modellierungsmethoden der Informatik Kapitel 2: Logikkalküle smethoden der Informatik Kapitel 2: Logikkalküle Prädikatenlogik 1. Stufe Norbert Fuhr Gudrun Fischer 29.11.2005 Organisatorisches Organisatorisches Klausur Termin: 20.2.2006, 13-15 Uhr, Audimax Anmeldung

Mehr

Resolution und Regeln

Resolution und Regeln Resolution und Regeln Hans Kleine Büning University of Paderborn Institute for Computer Science Group Paderborn, 18. Juli 2013 Resolution und Regeln Hans Kleine Büning 1/9 Resolution Theorem Resolution:

Mehr

5.1 Inferenz. Theorie der Informatik. Theorie der Informatik. 5.1 Inferenz. 5.2 Resolutionskalkül. 5.3 Zusammenfassung. Inferenz: Motivation

5.1 Inferenz. Theorie der Informatik. Theorie der Informatik. 5.1 Inferenz. 5.2 Resolutionskalkül. 5.3 Zusammenfassung. Inferenz: Motivation Theorie der Informatik 9. März 2015 5. Aussagenlogik III Theorie der Informatik 5. Aussagenlogik III 5.1 Inferenz Malte Helmert Gabriele Röger 5.2 Resolutionskalkül Universität Basel 9. März 2015 5.3 Zusammenfassung

Mehr

Was ist Logische Programmierung?

Was ist Logische Programmierung? Was ist Logische Programmierung? Die Bedeutung eines Computer-Programms kann durch Logik erklärt werden. Die Idee der logischen Programmierung besteht darin, die Logik eines Programms selber als Programm

Mehr

Diskrete Mathematik 1 WS 2008/09

Diskrete Mathematik 1 WS 2008/09 Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May M. Ritzenhofen, M. Mansour Al Sawadi, A. Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik 1 WS 008/09 Blatt

Mehr

Sprachanalyse. Fachseminar WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Nadia Douiri

Sprachanalyse. Fachseminar WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Nadia Douiri Sprachanalyse WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Inhalt 1. Formale Sprachen 2. Chomsky-Hierarchie 2 FORMALE SPRACHE 1. WAS IST EINE SPRACHE? 2. WIE BESCHREIBT MAN EINE SPRACHE? 3. WAS

Mehr

Formale Systeme. Das Erfu llbarkeitsproblem. Prof. Dr. Bernhard Beckert, WS 2017/2018

Formale Systeme. Das Erfu llbarkeitsproblem. Prof. Dr. Bernhard Beckert, WS 2017/2018 Formale Systeme Prof. Dr. Bernhard Beckert, WS 2017/2018 Das Erfu llbarkeitsproblem KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft

Mehr

(Logik und) Logikprogrammierung

(Logik und) Logikprogrammierung Übungsaufgaben zur Lehrveranstaltung (Logik und) Logikprogrammierung im Studiengang Informatik Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Fachgebiet Künstliche Intelligenz

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

4 Induktion von Regeln

4 Induktion von Regeln 4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung

Mehr

Prädikatenlogische Entscheidbarkeitsprobleme

Prädikatenlogische Entscheidbarkeitsprobleme Prädikatenlogische Entscheidbarkeitsprobleme Erfüllbarkeitsproblem: Gegeben: prädikatenlogischer Ausdruck A über einer Signatur S Frage: Ist A erfüllbar? Gültigkeitsproblem: Gegeben: prädikatenlogischer

Mehr

Logisches und funktionales Programmieren

Logisches und funktionales Programmieren Prof. Dr. Christoph Beierle, Dr. Harald Ganzinger, Prof. Dr. Michael Hanus Kurs 01816 Logisches und funktionales Programmieren LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker Wintersemester 2007/08 Thomas Schwentick Teil A: Aussagenlogik 3. Erfüllbarkeit Version von: 23. Januar 2008(16:11) Inhalt 3.1 Grundbegriffe 3.2 Aussagenlogische Resolution 3.3 Endlichkeitssatz

Mehr

Grundlagen der Theoretischen Informatik

Grundlagen der Theoretischen Informatik FH Wedel Prof. Dr. Sebastian Iwanowski GTI22 Folie 1 Grundlagen der Theoretischen Informatik Sebastian Iwanowski FH Wedel Kap. 2: Logik, Teil 2.2: Prädikatenlogik FH Wedel Prof. Dr. Sebastian Iwanowski

Mehr

Theoretische Informatik: Logik

Theoretische Informatik: Logik Theoretische Informatik: Logik Vorlesung mit Übungen im WS 2006/2007 Vorlesung: Montag Montag 9-10 Uhr, Raum 1603 WAneu 14-16 Uhr, Raum 1603 WAneu Beginn: Montag, den 23.10.2006, 9 15 Uhr. Übungen in 3

Mehr

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016 Algorithmen und Datenstrukturen 2 Übung 1 Stefan Florian Palkovits, BSc 0926364 e0926364@student.tuwien.ac.at 12. Juni 2016 Aufgabe 1: Es existiert eine Reduktion von Problem A auf Problem B in O(n 3 +

Mehr

Theorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21.

Theorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21. Theorie der Informatik 19. Mai 2014 21. einige NP-vollständige Probleme Theorie der Informatik 21. einige NP-vollständige Probleme 21.1 Übersicht 21.2 Malte Helmert Gabriele Röger 21.3 Graphenprobleme

Mehr

FO-Klauselmengen Abschnitt 5.1. Logik-Kalküle. Klauselmengen und universell-pränexe Sätze. Übersetzungs-Beispiel

FO-Klauselmengen Abschnitt 5.1. Logik-Kalküle. Klauselmengen und universell-pränexe Sätze. Übersetzungs-Beispiel Teil 2: FO Beweiskalküle Logik-Kalküle syntaktische Beweiskalküle Beweise der Unerfüllbarkeit Resolution vergleiche Kalküle für AL Resolution bzw. der Widerlegungskalkül: Unerfüllbarkeitsbeweise wir behandeln:

Mehr

Grundlagen der Logik

Grundlagen der Logik Grundlagen der Logik Denken Menschen logisch? Selektionsaufgabe nach Watson (1966): Gegeben sind vier Karten von denen jede auf der einen Seite mit einem Buchstaben, auf der anderen Seite mit einer Zahl

Mehr

Kapitel 6: Logik. Teil 2. (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01)

Kapitel 6: Logik. Teil 2. (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01) Kapitel 6: Logik Teil 2 (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01) Künstliche Intelligenz, Kapitel 6 Logik 1 Wdh. Resolution Das Resolutionsprinzip

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker 3. Prädikatenlogik Teil 7 26.06.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Unser Ziel Kalküle zur systematischen Überprüfung von

Mehr

Beispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise:

Beispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise: Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 4.9 Prädikatenlogik Resolution 207 Beispiel Bsp.: Betrachte Schlussweise in: 1 Wenn es regnet, dann wird die Straße nass. R N 2 Es regnet. R

Mehr

Tableaukalkül für Aussagenlogik

Tableaukalkül für Aussagenlogik Tableaukalkül für Aussagenlogik Tableau: Test einer Formel auf Widersprüchlichkeit Fallunterscheidung baumförmig organisiert Keine Normalisierung, d.h. alle Formeln sind erlaubt Struktur der Formel wird

Mehr

Wiederholung: Resolution in der Aussagenlo. Resolution in der Prädikatenlogik. Definition von Res(F) (Wiederholung)

Wiederholung: Resolution in der Aussagenlo. Resolution in der Prädikatenlogik. Definition von Res(F) (Wiederholung) Resolution in der Prädikatenlogik Wiederholung: Resolution in der Aussagenlo Der Algorithmus von Gilmore funktioniert zwar, ist in der Praxis aber unbrauchbar. Daher ist unser Programm der nächsten Stunden:

Mehr

Formale Systeme, WS 2008/2009 Lösungen zum Übungsblatt 2

Formale Systeme, WS 2008/2009 Lösungen zum Übungsblatt 2 UNIVERSITÄT KARLSRUHE (TH) Institut für Theoretische Informatik Prof. Dr. B. Beckert M. Ulbrich Formale Systeme, WS 2008/2009 Lösungen zum Übungsblatt 2 Dieses Blatt wurde in der Übung am 14.11.2008 besprochen.

Mehr

Aufgabe 13 (Markierungsalgorithmus). Gegeben ist die Formel F = (A D C) (E A) ( ( B D) E) A B (B D)

Aufgabe 13 (Markierungsalgorithmus). Gegeben ist die Formel F = (A D C) (E A) ( ( B D) E) A B (B D) INTA - Lösungshinweise zum Übungsblatt 4, Version 1.0α. Wenn sie Fehler finden oder Ihnen etwas auch nach dem Gespräch mit ihren Kommilitonen noch unklar ist, dann schicken sie mir bitte eine Email! Aufgabe

Mehr

Klausur Formale Systeme Fakultät für Informatik WS 2009/2010. Prof. Dr. Bernhard Beckert. 18. Februar 2010

Klausur Formale Systeme Fakultät für Informatik WS 2009/2010. Prof. Dr. Bernhard Beckert. 18. Februar 2010 Klausur Formale Systeme Fakultät für Informatik Name: Mustermann Vorname: Peter Matrikel-Nr.: 0000000 Klausur-ID: 0000 WS 2009/2010 Prof. Dr. Bernhard Beckert 18. Februar 2010 A1 (15) A2 (10) A3 (10) A4

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Problem: Gegeben Spezifikation (P,Q) und Implementierung S Gesucht formaler (automatisierbarer?) Beweis, dass S (P,Q) erfüllt.

Problem: Gegeben Spezifikation (P,Q) und Implementierung S Gesucht formaler (automatisierbarer?) Beweis, dass S (P,Q) erfüllt. Formale Verifikation von Algorithmen 1.3 Verifikation Problem: Gegeben Spezifikation (P,Q) und Implementierung S Gesucht formaler (automatisierbarer?) Beweis, dass S (P,Q) erfüllt. Bisher nicht möglich

Mehr

Eigenschaften der SLD-Resolution

Eigenschaften der SLD-Resolution Eigenschaften der SLD-Resolution Vollständigkeit der SLD-Resolution für Hornklauseln Sei F eine inkonsistente Hornklauselmenge. Dann gibt es eine SLD-Widerlegung von F. Beweisskizze: Für inkonsistentes

Mehr

Algorithmen mit konstantem Platzbedarf: Die Klasse REG

Algorithmen mit konstantem Platzbedarf: Die Klasse REG Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August

Mehr

Normal Programs. Vervollständigung. Steffen Staab ISWeb Vorlesung Datenbanken II

Normal Programs. Vervollständigung. Steffen Staab ISWeb Vorlesung Datenbanken II Normal Programs Vervollständigung Programmklausel, Normal Programs Eine Programmklausel ist eine Klausel der Form A L 1,,L n wobei A ein Atom ist und L 1,,L n Literale sind. Ein Normal Program besteht

Mehr

Einführung in die Logik (Vorkurs)

Einführung in die Logik (Vorkurs) Einführung in die Logik (Vorkurs) Jürgen Koslowski 2014-04-07 Ein Beispiel Familie A will im kommenden Jahr eine Waschmaschine, ein Auto und ein Moped anschaffen. Aber falls Herr A seinen üblichen Bonus

Mehr

Erfüllbarkeit von Horn-Klauseln und Berechnung des kleinsten Herbrand-Modells

Erfüllbarkeit von Horn-Klauseln und Berechnung des kleinsten Herbrand-Modells Erfüllbarkeit von Horn-Klauseln und Berechnung des kleinsten Herbrand-Modells Effiziente Entscheidung der Erfüllbarkeit von Horn-Klauseln Effiziente Berechnung des kleinsten Herbrand-Modells M P Naive

Mehr

1 Inhalt der Vorlesung B-PS1

1 Inhalt der Vorlesung B-PS1 1 Inhalt der Vorlesung B-PS1 1.1 Tag 1 1.1.1 Vormittag Geschichte der Programmiersprachen Wie viele Programmiersprachen gibt es? https://en.wikipedia.org/wiki/list_of_programming_languages Esoterische

Mehr

Lösungen zur Vorlesung Berechenbarkeit und Komplexität

Lösungen zur Vorlesung Berechenbarkeit und Komplexität Lehrstuhl für Informatik 1 WS 009/10 Prof. Dr. Berthold Vöcking 0.0.010 Alexander Skopalik Thomas Kesselheim Lösungen zur Vorlesung Berechenbarkeit und Komplexität. Zulassungsklausur Aufgabe 1: (a) Worin

Mehr

Das Heiratsproblem. Definition Matching

Das Heiratsproblem. Definition Matching Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker 2. Aussagenlogik Teil 6 14.05.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Bis jetzt Syntax der Aussagenlogik: Definition der Menge

Mehr