Induktive Logikprogrammierung
|
|
- Otto Sommer
- vor 7 Jahren
- Abrufe
Transkript
1 3. Lernen mit Vorwissen Induktive Logikprogrammierung Induktive Logikprogrammierung Induktive Logikprogrammierung (ILP) kombiniert induktives Lernen mit Repräsentationen in Prädikatenlogik erster Stufe, insbesondere Horn- Klauseln. Vorteile von ILP: Strenger Ansatz für das allgemeine induktive Lernproblem. Vollständige Algorithmen für die Ableitung allgemeiner Theorien erster Stufe. Die erzeugten Hypothesen sind für Menschen leicht verständlich. wesentlicher Unterschied zu Black-Box-Methoden wie z.b. neuronale Netze Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 130
2 3. Lernen mit Vorwissen Induktive Logikprogrammierung H:3[71-84] H:5[ ] H:1[19-37] H:6[79-88] H:4[61-64] H:5[66-70] H:2[26-33] H:1[8-17] E:2[96-98] E:1[57-59] H:7[99-106] H:4[93-108] H:2[41-64] H:3[40-50] 1omd - EF-Hand 2mhr - Four-helical up-and-down bundle Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 131
3 3. Lernen mit Vorwissen Induktive Logikprogrammierung Beispiel 3.5. Die beiden Grafiken der vorangegangenen Folie zeigen positive und negative Beispiele des 4-Helix-Auf/Ab-Bündel -Konzepts der Proteinfaltung. Jede Beispielstruktur ist in einem logischen Ausdruck von ca. 100 Konjunkten codiert. Daraus sowie aus Klassifizierungen für die Beispiele hat das ILP-System Progol (Muggleton, 1995) die folgende Regel gelernt: Entfalten(FourHelicalUpAndDownBundle, p) Helix(p,h 1 ) Länge(h 1, High) Position(p, h 1,n) (1 n 3) Benachbart(p, h 1,h 2 ) Helix(p,h 2 ). Interpretation: Das Protein P hat die Entfaltungsklasse 4-Helix- Auf/Ab-Bündel, wenn sie eine lange Helix h 1 an einer sekundären Strukturposition zwischen 1 und 3 besitzt und h 1 sich neben einer zweiten Helix befindet. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 132
4 3. Lernen mit Vorwissen Induktive Logikprogrammierung Prinzipielle Vorgehensweise bei ILP Induktive Logikprogrammierung basiert auf Vorwissen Hypothese Beschreibungen = Klassifizierungen wobei die Hypothese unbekannt und der Rest bekannt ist (Vorwissen). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 133
5 3. Lernen mit Vorwissen Induktive Logikprogrammierung Einführendes Beispiel zur ILP Wir wollen Prädikate über Familienverhältnisse lernen. Beispielbeschreibungen: Vater(Philip, Charles) Mutter(Mum, Margaret) Verheiratet(Diana, Charles) Männlich(Philip) Vater(Philip, Anne) Mutter(Mum, Elizabeth) Verheiratet(Elizabeth, Philip) Weiblich(Beatrice) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 134
6 3. Lernen mit Vorwissen Induktive Logikprogrammierung Klassifizierungen hängen vom zu lernenden Zielkonzept ab, z.b. Großeltern: Großeltern(Mum, Charles) Großeltern(Elizabeth, Beatrice) Großeltern(Mum, Harry) Großeltern(Spencer, Peter) George Mum Spencer Kydd Elizabeth Philip Margaret Diana Charles Anne Mark Andrew Sarah Edward William Harry Peter Zara Beatrice Eugenie Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 135
7 3. Lernen mit Vorwissen Induktive Logikprogrammierung Konsistente Hypothese: Großeltern(x, y) [ z Mutter(x, z) Mutter(z, y)] [ z Mutter(x, z) Vater(z, y)] [ z Vater(x, z) Mutter(z, y)] [ z Vater(x, z) Vater(z, y)] Ein attributbasiertes Lernverfahren (wie beispielsweise die Generierung von Entscheidungsbäumen) wäre nicht in der Lage, solch ein relationales Prädikat zu lernen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 136
8 3. Lernen mit Vorwissen Induktive Logikprogrammierung Mit dem Vorwissen Eltern(x, y) [Mutter(x, y) Vater(x, y)] würde die Definition von Großeltern reduziert auf: Großeltern(x, y) [ z Eltern(x, z) Eltern(z, y)] Wie kommen wir zu solch einer konsistenten Hypothese? Zwei Ansätze: 1. FOIL: Verallgemeinerung von Entscheidungsbaummethoden 2. Invertierung eines Resolutionsbeweises Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 137
9 FOIL: First-Order Inductive Logic Vorgehensweise: Beginne mit einer sehr allgemeinen Regel und spezialisiere diese schrittweise, so daß sie stets mit den Beispielen übereinstimmt. Für die Induktive Logikprogrammierung verwenden wir Literale der Prädikatenlogik ersten Stufe. Die Hypothese ist eine Menge von Klauseln. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 138
10 Beispiel 3.6. Für den Familienstammbaum von Folie 134 wollen wir eine Definition für Großvater(x, y) lernen. Jedes Paar von Objekten liefert ein Beispiel. Hier 20 * 20 = 400 Beispiele, davon 12 positiv. FOIL konstruiert eine Menge von Klauseln mit dem zu lernenden Prädikat Großvater(x, y) als Kopf. Die Klauseln sind Hornklauseln erweitert um negierte Literale. Die initiale Klausel hat einen leeren Rumpf (leere Prämisse): Großvater(x, y) Damit werden alle Beispiele als positiv klassifiziert. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 139
11 Damit negative Beispiele nicht als positiv klassifiziert werden, muss die Klausel spezialisiert werden. Dazu werden Literale auf der linken Seite eingefügt, z.b.: Vater(x, y) Großvater(x, y) Eltern(x, z) Großvater(x, y) Vater(x, z) Großvater(x, y) Literale werden aus bekannten Prädikaten generiert, sie stammen somit aus dem Hintergrundwissen. Die erste Klausel klassifiziert alle positiven Beispiele als negativ und ist somit nicht brauchbar. Die zweite und die dritte Klausel stimmen mit allen positiven Beispielen überein, die zweite ist aber für einen großen Teil der Negativen falsch. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 140
12 Wir nehmen die dritte Klausel und müssen weiter spezialisieren. Das Einfügen des einzelnen Literals Eltern(z, y) ergibt: Vater(x, z) Eltern(z, y) Großvater(x, y) womit alle Beispiele korrekt klassifiziert werden. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 141
13 FOIL-Algorithmus Algorithmus 3.1. FOIL-Algorithmus für das Lernen von Horn-Klauselmengen. Die Funktion FOIL erzeugt eine Menge von Horn-Klauseln (Regelmenge). function FOIL(examples, target) returns eine Menge von Horn-Klauseln while examples enthält positive Beispiele do clause NEW-CLAUSE(examples, target) von clause abgedeckte Beispiele aus examples entfernen clause in clauses einfügen return clauses Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 142
14 Die Funktion NEW-CLAUSE erzeugt eine einzelne Horn-Klausel. function NEW-CLAUSE(examples, target) returns eine Horn-Klausel extend examples examples while extend examples negative Beispiele enthält do l CHOOSE-LITERAL(NEW-LITERALS(clause), extend examples) l dem rumpf von clause hinzufügen extend examples Beispielmenge, die durch Anwendung von EXTEND-EXAMPLES auf jedes Beispiel in extend examples erzeugt wurde return clause Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 143
15 function EXTEND-EXAMPLES(example, literal) returns if example erfüllt literal then return die Beispielmenge, die durch Extension von example mit jedem möglichen Konstantenwert für jede neue Variable in literal erzeugt wurde. else return die leere Menge Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 144
16 Erzeugung von Literalen NEW-LITERALS nimmt eine Klausel entgegen und konstruiert alle sinnvollen Literale, die der Klausel hinzugefügt werden können. Sei die Klausel R definiert durch L 1,...,L n P(x 1,...,x k ) Daraus soll R generiert werden in der Form L 1,...,L n, L P(x 1,...,x k ) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 145
17 Für L gibt es drei Arten von Literalen: 1. Q(v 1,...,v r ) wobei Q ein existierendes Prädikat ist und die v i alle verschiedene Variablen; mindestens eine davon muss schon in R vorkommen; Negation ist auch erlaubt. 2. Gleichheits- oder Ungleichheitsliterale, z.b. x i = x j, wobei beide Variablen schon in R vorkommen müssen. 3. Arithmetische Vergleiche, z.b. x c, wobei c ein numerischer Wert ist. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 146
18 Erläuterungen und Beispiele zu FOIL Äußere und innere Schleife Die äußere Schleife findet für positive Beispiele bzw. Tupel T + eine Klausel, die diese abdeckt. Die abgedeckten positiven Beispiele werden aus der Tupelmenge entfernt. Für die verbleibenden positiven Beispiele wird eine weitere Klausel gelernt. Es werden so viele Klauseln gelernt, wie notwendig ist, um alle positiven Beispiele abzudecken. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 147
19 In der inneren Schleife wird der Körper einer Klausel durch Literale erweitert, die Klausel also spezialisiert und zwar solange, bis die Klausel keine negativen Beispiele mehr falsch klassifiziert. Vorgehensweise: Setze i = 1 und initialisiere T i mit den Beispieltupeln. Solange T Tupel enthält: Finde ein nützliches Literal L i und füge es dem Klauselkörper hinzu, Erstelle eine neue Tupelmenge T i+1, die nur diejenigen Beispiele enthält, für die L i gilt. Falls L i eine neue Variable einführt, werden die Tupel um diese erweitert. Die Klassifikation der Tupel in T i+1 bleibt die von T i. i := i + 1 Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 148
20 Auswahl von Literalen Ein zusätzliches Literal wird beispielsweise aufgrund des Informationsgewinns ausgewählt, den es für die Charakterisierung des Zielprädikats erbringt. Bewertung des Informationsgewinns: FoilGain(L, R) = t ( log 2 p i+1 p i+1 + n i+1 log 2 p i p i + n i ) p i+1 bzw. n i+1 ist die Anzahl der positiven bzw. negativen Tupel in T i+1, analog p i bzw. n i. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 149
21 t bezeichnet die Anzahl von Beispielen, für die alle Bedingungen von R erfüllt sind, eingeschränkt auf die Variablen in R. t dient zur Gewichtung. Anschaulich ausgedrückt handelt es sich um die Anzahl der positiven Beispiele, die nach Hinzunahme von L immer noch abgedeckt werden. Es können explizit positive und negative Beispiele gegeben sein. Dann wird mit diesen gearbeitet. Falls nur positive Beispiele gegeben sind, geht man von der Closed World Assumption (CWA) aus, d.h. alles was nicht explizit positiv ist, ist negativ. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 150
22 Beispiel 3.7. Fakten: eltern(x, Y) (ann,mary) (ann,tom) (tom,eve) (tom,ian) weiblich(x) (mary) (ann) (eve) Es soll das Prädikat tochter(x, Y) gelernt werden. Trainingsmenge: tochter(x, Y) Klassifikation (mary,ann) + (eve,tom) + (tom,ann) (eve,ann) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 151
23 Zunächst enthält die Klausel nur das Zielprädikat tochter(x, Y) als Klauselkopf: tochter(x, Y) Die Menge T 1 enthält alle 4 Tupel, p 1 = 2, n 1 = 2, der Informationsgehalt ist I(T 1 ) = log = 1. Wir erweitern den Klauselkörper um weiblich(x): weiblich(x) tochter(x, Y) T 2 enthält nun nicht mehr (tom,ann). Damit gilt I(T 2 ) = log = Der Informationsgewinn von weiblich(x) ist also: FoilGain(weiblich(X), tochter(x, Y)) = 2( ) = 0.84 Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 152
24 Wird nun noch eltern(y, X) als nächstes Literal hinzugefügt, weiblich(x) eltern(y, X) tochter(x, Y) so brauchen wir bei der Tupelmenge T 3 keine weitere Information für die Klassifikation: I(T 3 ) = 0. Der Informationsgewinn ist damit: FoilGain(eltern(Y, X), weiblich(x) tochter(x, Y)) = 2( ) = 1.16 Die aktuelle Klausel deckt alle positiven Beispiele ab. Da in T 3 auch kein negatives Beispiel mehr enthalten ist, endet die innere Schleife. Damit ist die erste Iteration der äußeren Schleife abgeschlossen. Alle positiven Beispiele, die durch die gefundene Klausel abgedeckt sind, werden aus der Beispielmenge entfernt. Da dies alle sind, endet auch die äußere Schleife. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 153
25 Beispiel 3.8. Fakten: enkelin(x, Y) vater(x, Y) weiblich(x) (hannah,manfred) (frieder,hannah) (hannah) (frieder,florian) (manfred,frieder) Es soll das Prädikat enkelin(x, Y) gelernt werden. Es gilt die Closed World Assumption (CWA). Wir haben vier Objekte/Konstanten (florian, frieder, hannah, manfred). Wir beginnen mit: enkelin(x, Y) Damit haben wir ein positives und 15 negative Beispiele. Übersicht über die Kandidatenliterale: Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 154
26 Literal p i n i p i+1 n i+1 t FoilGain X = Y weiblich(x) weiblich(y) vater(x, Y) vater(y, X) vater(x, Z) vater(z, X) vater(y, Z) vater(z, Y) X Y weiblich(x) weiblich(y) vater(x, Y) vater(y, X) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 155
27 weiblich(x) liefert den größten Informationsgewinn und wird selektiert. Fortführung des Beispiels: Beispiel 3.9. Dieses Beispiel stammt aus dem Orginalartikel zu Foil: J.R. Quinlan, Learning Logical Definitions from Relations, Machine Learning, Vol. 5, (1990) Für einen gerichteten azyklischen Graph lerne man das Prädikat weg(x,y). Gegeben sind die gerichteten Kanten als Fakten der Form kante(x, Y). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 156
28 Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 157
29 Bewertung von FOIL Vorteile: mächtige Beschreibungssprache für Konzepte kann logische Programme (Prolog) aus Beispielen lernen kann Hintergrundwissen verarbeiten Nachteile: Hohe Komplexität der Suche. Die Anzahl der zu untersuchenden Literale steigt exponentiell mit der Stelligkeit der Prädikate. Die Größe der lokalen Trainingsmenge steigt exponentiell mit der Anzahl der neuen Variablen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 158
30 Typisierte Prädikate Zur Einschränkung der Komplexität: Jedem Argument der Prädikate wird ein Typ zugeordnet. Konsequenz: Bestimmte Kombinationen von Variablen im Klauselrumpf sind nicht mehr zugelassen. Die Anzahl der hinzufügbaren Literale wird begrenzt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 159
31 3. Lernen mit Vorwissen Inverse Resolution Induktives Lernen mit inversem Schließen Der zweite ILP-Ansatz ist die inverse Resolution. Grundidee: Wenn gilt: Vorwissen Hypothese Beschreibungen = Klassifizierungen dann muß man in der Lage sein, dies durch Resolution zu beweisen. Wenn wir den Beweis rückwärts ausführen, können wir eine Hypothese finden, so daß der Beweis möglich ist. Umkehrung des Resolutionsprozesses. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 160
32 3. Lernen mit Vorwissen Inverse Resolution Resolution in PL1 Es seien K 1, K 2 PL1-Klauseln. Die Klausel R heißt PL1-Resolvente von K 1 und K 2 gdw. folgendes gilt: (a) K 1 und K 2 haben keine gemeinsamen Variablen. (b) Es gibt positive Literale A 1,...,A k K 1, ein negatives Literal A K 2 und einen allgemeinsten Unifikator σ von A,A 1,...A k. (c) R hat die folgende Form: σ((k 1 \ {A 1,...,A k }) (K 2 \ { A})) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 161
33 3. Lernen mit Vorwissen Inverse Resolution Inverser Resolutionsschritt Ein inverser Resolutionsschritt nimmt eine Resolvente R und erzeugt zwei Klauseln K 1 und K 2, so daß R das Ergebnis der Resolution von K 1 und K 2 ist. Alternativ kann man eine Resolvente R und eine Klausel K 1 nehmen sowie eine Klausel K 2 erzeugen, so daß R das Ergebnis der Resolution von K 1 und K 2 ist. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 162
34 3. Lernen mit Vorwissen Inverse Resolution Parent(x,z) > Parent(z,y) > Grandparent(x,y) Parent(George,Elizabeth) {x/george, z/elizabeth} Parent(Elizabeth,y) > Grandparent(George,y) Parent(Elizabeth,Anne) {y/anne} Grandparent(George,Anne) Grandparent(George,Anne) Der Prozess beginnt am Ende des Beweises. Der erste inverse Schritt nimmt die leere Klausel als Resolvente R und geht von Großeltern(George, Anne) als negiertes Ziel K 2 aus. Die Klausel Großeltern(George, Anne) wird als K 1 erzeugt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 163
35 3. Lernen mit Vorwissen Inverse Resolution Der nächste Schritt: R : Großeltern(George, Anne) K 1 : Eltern(Elizabeth, Anne) erzeugt wird K 2 : Eltern(Elizabeth, y) Großeltern(George, y) Substitution: {y/anne} Der letzte Schritt: R : Eltern(Elizabeth, y) Großeltern(George, y) K 1 : Eltern(George, Elizabeth) erzeugt wird: K 2 : Eltern(x, z) Eltern(z, y) Großeletern(x, y) Substitution: {x/george, z/elizabeth} Jetzt haben wir einen Resolutionsbeweis, daß Hypothese, Beschreibungen und Hintergrundwissen die Klassifizierung Großeltern(George, Anne) als logische Konsequenz haben. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 164
36 3. Lernen mit Vorwissen Inverse Resolution Inverse Resolutonssysteme können auch neue Prädikate einführen: Father(x,y) > P(x,y) > P(George,y) Ancestor(George,y) {x/george} > Father(George,y) Ancestor(George,y) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 165
37 3. Lernen mit Vorwissen Inverse Resolution Zusammenfassung Vorwissen kann beim Lernen helfen: kumulatives Lernen, schnelleres Lernen Bedingung der logischen Konsequenz EBL: Lernen durch verallgemeinerte Erklärungen von Beispielen RBL: Vorwissen in Form von Feststellungen, um relevante Attribute zu identifizieren. KBIL: sucht nach Hypothesen, die Beispiele mit Hilfe von Hintergrundwissen erklären. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 166
38 3. Lernen mit Vorwissen Inverse Resolution ILP: KBIL für die Prädikatenlogik oder Horn-Logik Methoden für ILP: Foil, inverse Resolution Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 167
Inductive Logic Programming Relational Data Mining
Hauptseminar Machine Learning Inductive Logic Programming Relational Data Mining Christoph Petzinger WS 2003/2004 Inhaltsverzeichnis 1 Relational Data Mining 3 2 Inductive Logic Programming 4 2.1 Prädikatenlogik.................................
MehrNeuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden
Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen
MehrÜbersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrIntegration vor Vorwissen. Übersicht. Restaurantdomäne und Logik
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
Mehr3. Lernen mit Vorwissen
3. Lernen mit Vorwissen Wissen beim Lernen 3. Lernen mit Vorwissen Sei Beschreibungen die Konjunktion aller Beispiele der Trainingsmenge und Klassifizierungen die Konjunktion aller Beispielklassifizierungen.
MehrEigenschaften der Resolution für PL1 Formeln
Eigenschaften der Resolution für PL1 Formeln Widerlegungsvollständigkeit (ohne Beweis): Sofern man Resolution auf eine widersprüchliche Klauselmenge anwendet, so existiert eine endliche Folge von Resolutionsschritten,
MehrKapitel VI.2. Induktives logisches Programmieren (ILP)
Kapitel VI.2 Induktives logisches Programmieren (ILP) Institut AIFB, 2002. Alle Rechte vorbehalten. Nachdruck oder photomechanische Wiedergabe nur mit Genehmigung des Verfassers. Zuwiderhandlungen unterliegen
MehrPolicy Learning Teil 2. von Susanne Schilling
Policy Teil 2 von Susanne Schilling Ziele des Ansatzes, den ich vorstellen möchte (von Huang, Selman und Kautz): domänenunabhängige Planung Lernen von allgemeinen Regeln zur Suche im Zustandsraum Regeln
MehrKünstliche Intelligenz Logische Agenten & Resolution
Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein
MehrLogische und funktionale Programmierung
Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrResolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren:
Resolutionskalkül Ein Kalkül ist eine Kollektion von syntaktischen Umformungsregeln, die unter gegebenen Voraussetzungen aus bereits vorhandenen Formeln neue Formeln erzeugen. Der Resolutionskalkül besteht
MehrFormale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln
Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Frank Heitmann heitmann@informatik.uni-hamburg.de 9. Juni 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/36 Ersetzbarkeitstheorem
MehrAussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37
Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/37 Modellierungsaufgabe Es gibt drei Tauben und zwei Löcher. Jede Taube soll in
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 28. Aussagenlogik: DPLL-Algorithmus Malte Helmert Universität Basel 2. Mai 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26. Grundlagen 27. Logisches
MehrSeminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme
Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen
MehrProlog basiert auf Prädikatenlogik
Software-Technologie Software-Systeme sind sehr komplex. Im Idealfall erfolgt die Programmierung problemorientiert, während die notwendige Übertragung in ausführbare Programme automatisch erfolgt. Prolog-Philosophie:
MehrEvaluierung des Lernalgorithmus
Evaluierung des Lernalgorithmus Anforderungen: Die erzeugten Hypothesen sollen auch (bisher) unbekannte Beispiele korrekt klassifizieren. Untersuchung der Vorhersagequalität von Hypothesen Vorgehen: 1.
MehrResolution für die Aussagenlogik
Resolution für die Aussagenlogik Der Resolutionskakül ist ein Beweiskalkül, der auf Klauselmengen, d.h. Formeln in KNF arbeitet und nur eine Schlußregel besitzt. Der Resolution liegt die folgende Vorstellung
MehrProblem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten
2.6 Verfeinerung der Resolution Problem der Resolution: Kombinatorische Explosion Ziel: Einschränkung der Möglichkeiten Resolutions-Strategien: heuristische Regeln für die Auswahl der Resolventen Resolutions-Restriktionen:
MehrLogikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog
Logikprogrammierung Berechnung durch Resolution Die Programmiersprache Prolog Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 6.1 Logikprogrammierung Berechnung durch Resolution 213 Resolution
MehrWozu formale Logik? Programmiersprachen Logik im Fingerhut. Formeln. Logik im Fingerhut (24. Januar 2005) Belegung und Interpretation
Wozu formale Logik? Logik im Fingerhut Studiengang Informatik Universität Bremen präzise Beschreibung von Aussagen über die Welt bzw. über verschiedene Welten Ziehen und Überprüfen von Schlussfolgerungen
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 27. Aussagenlogik: Logisches Schliessen und Resolution Malte Helmert Universität Basel 28. April 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26.
MehrLogik-Grundlagen. Syntax der Prädikatenlogik
Logik-Grundlagen X 1 :...: X k : ( A 1 A 2... A m B 1 B 2... B n ) Logische und funktionale Programmierung - Universität Potsdam - M. Thomas - Prädikatenlogik III.1 Syntax der Prädikatenlogik Prädikat:
MehrLabor Compilerbau. Jan Hladik. Sommersemester DHBW Stuttgart. Jan Hladik (DHBW Stuttgart) Labor Compilerbau Sommersemester / 20
Labor Compilerbau Jan Hladik DHBW Stuttgart Sommersemester 2017 Jan Hladik (DHBW Stuttgart) Labor Compilerbau Sommersemester 2017 1 / 20 Resolution in der Prädikatenlogik testet Erfüllbarkeit (indirekt
MehrGDI Medieninformatik. 13. VL: Einführung in die mathematische Logik Prädikatenlogik (II)
GDI Medieninformatik 13. VL: Einführung in die mathematische Logik Prädikatenlogik (II) Prädikatenlogik erster Stufe (FOL): Syntax: Sprachelemente 27.01.2008 GDI - Logik 2 FOL: Syntax 27.01.2008 GDI -
MehrKünstliche Intelligenz Hornklauseln & Prolog
Künstliche Intelligenz Hornklauseln & Prolog Stephan Schwiebert WS 2007/2008 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Terminologie (A B C) E Rumpf einer Klausel
MehrFORMALE SYSTEME. 23. Vorlesung: Logisches Schließen. TU Dresden, 16. Januar Markus Krötzsch Lehrstuhl Wissensbasierte Systeme
FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 16. Januar 2017 Rückblick Markus Krötzsch, 16. Januar 2017 Formale Systeme Folie 2 von 31
MehrKlauselmengen. Definition Sei
Klauselmengen Definition 2.38 Sei α = (p 11... p 1k1 )... (p n1... p nkn ) eine in aussagenlogische Formel in KNF. Dann heißen die Mengen {p i1,..., p iki }, 1 i n, der jeweils disjunktiv verknüpften Literale
MehrData Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende
MehrAussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen
Einführung in die Logik - 4 Aussagenlogische Widerlegungsverfahren zum Nachweis logischer Eigenschaften und Beziehungen Widerlegungsverfahren zum Aufwärmen: Bestimmung von Tautologien mittels Quick Falsification
MehrFormale Systeme. Aussagenlogik: Resolutionskalku l. Prof. Dr. Bernhard Beckert, WS 2018/2019
Formale Systeme Prof. Dr. Bernhard Beckert, WS 2018/2019 Aussagenlogik: Resolutionskalku l KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft
MehrLernen mit Logik und Relationen. Volker Tresp
Lernen mit Logik und Relationen Volker Tresp 1 Mustererkennung Betrachten wir Klassifikatoren, deren Zielgröße mit Sicherheit vorhergesagt werden kann, so kann man diese als Wenn-Dann Regel interpretieren:
MehrDeduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung
Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches Was folgt logisch aus dieser Theorie? Deduktion: aus
Mehr23. Vorlesung: Logisches Schließen Markus Kr otzsch Professur f ur Wissensbasierte Systeme Normalformen
Logik: Glossar FORMALE SYSTEME 23. Vorlesung: Logisches Schließen Markus Krötzsch Professur für Wissensbasierte Systeme TU Dresden, 15. Januar 2018 Atom kleinste mögliche Formel p P Teilformel Unterausdruck,
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrDeduktion in der Aussagenlogik
Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches. Was folgt logisch aus dieser Theorie? Deduktion: aus
MehrMarkov Logik. Matthias Balwierz Seminar: Maschinelles Lernen WS 2009/2010 Prof. Fürnkranz
Markov Logik Matthias Balwierz Seminar: Maschinelles Lernen WS 2009/2010 Prof. Fürnkranz Überblick Markov Netze Prädikatenlogik erster Stufe Markov Logik Inferenz Lernen Anwendungen Software 18.11.2009
MehrLogik für Informatiker
Vorlesung Logik für Informatiker 12. Prädikatenlogik Resolution Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Zur Erinnerung Definition: Aussagenlogische
MehrLogik. Gabriele Kern-Isberner LS 1 Information Engineering. TU Dortmund Wintersemester 2014/15 WS 2014/15
Logik Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2014/15 WS 2014/15 G. Kern-Isberner (TU Dortmund) Logik WS 2014/15 1 / 263 Übersicht Prädikatenlogik 8. Strukturen &
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrBerechnung von Abständen
3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.
MehrLogik Vorlesung 4: Horn-Logik und Kompaktheit
Logik Vorlesung 4: Horn-Logik und Kompaktheit Andreas Maletti 14. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
MehrLernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),
Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,
Mehr4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum
4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.
MehrInformatik A. Prof. Dr. Norbert Fuhr auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser
Informatik A Prof. Dr. Norbert Fuhr fuhr@uni-duisburg.de auf Basis des Skripts von Prof. Dr. Wolfram Luther und der Folien von Peter Fankhauser 1 Teil I Logik 2 Geschichte R. Descartes (17. Jhdt): klassische
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
Mehr5. Bäume und Minimalgerüste
5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein
MehrAussagenlogik: Syntax von Aussagen
Aussagenlogik: Syntax von Aussagen A ::= X (A A) (A A) ( A) (A A) (A A) 0 1 Prioritätsreihenfolge :,,,,. A B: Konjunktion (Verundung). A B: Disjunktion (Veroderung). A B: Implikation. A B: Äquivalenz.
MehrModellierungsmethoden der Informatik Kapitel 2: Logikkalküle
smethoden der Informatik Kapitel 2: Logikkalküle Prädikatenlogik 1. Stufe Norbert Fuhr Gudrun Fischer 29.11.2005 Organisatorisches Organisatorisches Klausur Termin: 20.2.2006, 13-15 Uhr, Audimax Anmeldung
MehrRalf Möller, TUHH. Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem. Lernziele: Beweisverfahren für Prädikatenlogik
Ralf Möller, TUHH Beim vorigen Mal: Heute: Prädikatenlogik: Algorithmus für Erfüllbarkeitsproblem Lernziele: Beweisverfahren für Prädikatenlogik Danksagung Bildmaterial: S. Russell, P. Norvig, Artificial
MehrLogik für Informatiker
Logik für Informatiker 2. Aussagenlogik Teil 5 14.05.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Bis jetzt Normalformen Atome, Literale, Klauseln Konjunktive
MehrHA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10. Besprechung in KW02/2019
Technische Universität München Winter 2018/19 Prof. J. Esparza / Dr. M. Luttenberger, C. Welzel 2019/01/11 HA-Lösung TA-Lösung Diskrete Strukturen Tutoraufgabenblatt 10 Besprechung in KW02/2019 Beachten
MehrZusammenfassung Syntax: Formale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Hornformeln. Zusammenfassung
Formale der Informatik 1 Kapitel 15 und Frank Heitmann heitmann@informatik.uni-hamburg.de 30. Mai 2016 Zusammenfassung Syntax Zusammenfassung Syntax: Motivation Definition der Syntax: Alphabet, Junktor
MehrSLD-Ableitungsbäume. G = B 1... B m. G die Menge aller SLD-Resolventen von G und definiten. G einen Nachfolger, der mit G markiert ist.
SLD-Ableitungsbäume Definition 5.48 Sei P ein definites Programm und G ein definites Ziel. Ein SLD-Ableitungsbaum ist ein Baum, der die folgenden Bedingungen erfüllt: 1. Jeder Knoten des Baums ist mit
MehrAussagenlogik Prädikatenlogik erster Stufe. Logik. Logik
Grundzeichen Aussagenlogik Aussagenvariablen P, Q, R,... Junktoren nicht und oder Runde Klammern (, ) Formeln Aussagenlogik Formeln sind spezielle Zeichenreihen aus Grundzeichen, und zwar 1 Jede Aussagenvariable
MehrLogische und funktionale Programmierung
Logische und funktionale Programmierung Vorlesung 2 und 3: Resolution Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 3. November 2017 1/43 HERBRAND-STRUKTUR Sei
MehrFormale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Hornformeln
Formale Grundlagen der Informatik 1 Kapitel 15 Normalformen und Frank Heitmann heitmann@informatik.uni-hamburg.de 30. Mai 2016 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/42 Zusammenfassung Syntax
MehrModellierungsmethoden der Informatik Kapitel 2: Logikkalküle
smethoden der Informatik Kapitel 2: Logikkalküle Prädikatenlogik 1. Stufe Norbert Fuhr Gudrun Fischer 29.11.2005 Organisatorisches Organisatorisches Klausur Termin: 20.2.2006, 13-15 Uhr, Audimax Anmeldung
MehrResolution und Regeln
Resolution und Regeln Hans Kleine Büning University of Paderborn Institute for Computer Science Group Paderborn, 18. Juli 2013 Resolution und Regeln Hans Kleine Büning 1/9 Resolution Theorem Resolution:
Mehr5.1 Inferenz. Theorie der Informatik. Theorie der Informatik. 5.1 Inferenz. 5.2 Resolutionskalkül. 5.3 Zusammenfassung. Inferenz: Motivation
Theorie der Informatik 9. März 2015 5. Aussagenlogik III Theorie der Informatik 5. Aussagenlogik III 5.1 Inferenz Malte Helmert Gabriele Röger 5.2 Resolutionskalkül Universität Basel 9. März 2015 5.3 Zusammenfassung
MehrWas ist Logische Programmierung?
Was ist Logische Programmierung? Die Bedeutung eines Computer-Programms kann durch Logik erklärt werden. Die Idee der logischen Programmierung besteht darin, die Logik eines Programms selber als Programm
MehrDiskrete Mathematik 1 WS 2008/09
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May M. Ritzenhofen, M. Mansour Al Sawadi, A. Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik 1 WS 008/09 Blatt
MehrSprachanalyse. Fachseminar WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Nadia Douiri
Sprachanalyse WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Inhalt 1. Formale Sprachen 2. Chomsky-Hierarchie 2 FORMALE SPRACHE 1. WAS IST EINE SPRACHE? 2. WIE BESCHREIBT MAN EINE SPRACHE? 3. WAS
MehrFormale Systeme. Das Erfu llbarkeitsproblem. Prof. Dr. Bernhard Beckert, WS 2017/2018
Formale Systeme Prof. Dr. Bernhard Beckert, WS 2017/2018 Das Erfu llbarkeitsproblem KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft
Mehr(Logik und) Logikprogrammierung
Übungsaufgaben zur Lehrveranstaltung (Logik und) Logikprogrammierung im Studiengang Informatik Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Fachgebiet Künstliche Intelligenz
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
Mehr4 Induktion von Regeln
4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung
MehrPrädikatenlogische Entscheidbarkeitsprobleme
Prädikatenlogische Entscheidbarkeitsprobleme Erfüllbarkeitsproblem: Gegeben: prädikatenlogischer Ausdruck A über einer Signatur S Frage: Ist A erfüllbar? Gültigkeitsproblem: Gegeben: prädikatenlogischer
MehrLogisches und funktionales Programmieren
Prof. Dr. Christoph Beierle, Dr. Harald Ganzinger, Prof. Dr. Michael Hanus Kurs 01816 Logisches und funktionales Programmieren LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten
MehrLogik für Informatiker
Logik für Informatiker Wintersemester 2007/08 Thomas Schwentick Teil A: Aussagenlogik 3. Erfüllbarkeit Version von: 23. Januar 2008(16:11) Inhalt 3.1 Grundbegriffe 3.2 Aussagenlogische Resolution 3.3 Endlichkeitssatz
MehrGrundlagen der Theoretischen Informatik
FH Wedel Prof. Dr. Sebastian Iwanowski GTI22 Folie 1 Grundlagen der Theoretischen Informatik Sebastian Iwanowski FH Wedel Kap. 2: Logik, Teil 2.2: Prädikatenlogik FH Wedel Prof. Dr. Sebastian Iwanowski
MehrTheoretische Informatik: Logik
Theoretische Informatik: Logik Vorlesung mit Übungen im WS 2006/2007 Vorlesung: Montag Montag 9-10 Uhr, Raum 1603 WAneu 14-16 Uhr, Raum 1603 WAneu Beginn: Montag, den 23.10.2006, 9 15 Uhr. Übungen in 3
MehrAlgorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016
Algorithmen und Datenstrukturen 2 Übung 1 Stefan Florian Palkovits, BSc 0926364 e0926364@student.tuwien.ac.at 12. Juni 2016 Aufgabe 1: Es existiert eine Reduktion von Problem A auf Problem B in O(n 3 +
MehrTheorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21.
Theorie der Informatik 19. Mai 2014 21. einige NP-vollständige Probleme Theorie der Informatik 21. einige NP-vollständige Probleme 21.1 Übersicht 21.2 Malte Helmert Gabriele Röger 21.3 Graphenprobleme
MehrFO-Klauselmengen Abschnitt 5.1. Logik-Kalküle. Klauselmengen und universell-pränexe Sätze. Übersetzungs-Beispiel
Teil 2: FO Beweiskalküle Logik-Kalküle syntaktische Beweiskalküle Beweise der Unerfüllbarkeit Resolution vergleiche Kalküle für AL Resolution bzw. der Widerlegungskalkül: Unerfüllbarkeitsbeweise wir behandeln:
MehrGrundlagen der Logik
Grundlagen der Logik Denken Menschen logisch? Selektionsaufgabe nach Watson (1966): Gegeben sind vier Karten von denen jede auf der einen Seite mit einem Buchstaben, auf der anderen Seite mit einer Zahl
MehrKapitel 6: Logik. Teil 2. (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01)
Kapitel 6: Logik Teil 2 (Dieser Foliensatz basiert auf Material von Mirjam Minor, Humboldt- Universität Berlin, WS 2000/01) Künstliche Intelligenz, Kapitel 6 Logik 1 Wdh. Resolution Das Resolutionsprinzip
MehrLogik für Informatiker
Logik für Informatiker 3. Prädikatenlogik Teil 7 26.06.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Unser Ziel Kalküle zur systematischen Überprüfung von
MehrBeispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise:
Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 4.9 Prädikatenlogik Resolution 207 Beispiel Bsp.: Betrachte Schlussweise in: 1 Wenn es regnet, dann wird die Straße nass. R N 2 Es regnet. R
MehrTableaukalkül für Aussagenlogik
Tableaukalkül für Aussagenlogik Tableau: Test einer Formel auf Widersprüchlichkeit Fallunterscheidung baumförmig organisiert Keine Normalisierung, d.h. alle Formeln sind erlaubt Struktur der Formel wird
MehrWiederholung: Resolution in der Aussagenlo. Resolution in der Prädikatenlogik. Definition von Res(F) (Wiederholung)
Resolution in der Prädikatenlogik Wiederholung: Resolution in der Aussagenlo Der Algorithmus von Gilmore funktioniert zwar, ist in der Praxis aber unbrauchbar. Daher ist unser Programm der nächsten Stunden:
MehrFormale Systeme, WS 2008/2009 Lösungen zum Übungsblatt 2
UNIVERSITÄT KARLSRUHE (TH) Institut für Theoretische Informatik Prof. Dr. B. Beckert M. Ulbrich Formale Systeme, WS 2008/2009 Lösungen zum Übungsblatt 2 Dieses Blatt wurde in der Übung am 14.11.2008 besprochen.
MehrAufgabe 13 (Markierungsalgorithmus). Gegeben ist die Formel F = (A D C) (E A) ( ( B D) E) A B (B D)
INTA - Lösungshinweise zum Übungsblatt 4, Version 1.0α. Wenn sie Fehler finden oder Ihnen etwas auch nach dem Gespräch mit ihren Kommilitonen noch unklar ist, dann schicken sie mir bitte eine Email! Aufgabe
MehrKlausur Formale Systeme Fakultät für Informatik WS 2009/2010. Prof. Dr. Bernhard Beckert. 18. Februar 2010
Klausur Formale Systeme Fakultät für Informatik Name: Mustermann Vorname: Peter Matrikel-Nr.: 0000000 Klausur-ID: 0000 WS 2009/2010 Prof. Dr. Bernhard Beckert 18. Februar 2010 A1 (15) A2 (10) A3 (10) A4
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
MehrProblem: Gegeben Spezifikation (P,Q) und Implementierung S Gesucht formaler (automatisierbarer?) Beweis, dass S (P,Q) erfüllt.
Formale Verifikation von Algorithmen 1.3 Verifikation Problem: Gegeben Spezifikation (P,Q) und Implementierung S Gesucht formaler (automatisierbarer?) Beweis, dass S (P,Q) erfüllt. Bisher nicht möglich
MehrEigenschaften der SLD-Resolution
Eigenschaften der SLD-Resolution Vollständigkeit der SLD-Resolution für Hornklauseln Sei F eine inkonsistente Hornklauselmenge. Dann gibt es eine SLD-Widerlegung von F. Beweisskizze: Für inkonsistentes
MehrAlgorithmen mit konstantem Platzbedarf: Die Klasse REG
Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August
MehrNormal Programs. Vervollständigung. Steffen Staab ISWeb Vorlesung Datenbanken II
Normal Programs Vervollständigung Programmklausel, Normal Programs Eine Programmklausel ist eine Klausel der Form A L 1,,L n wobei A ein Atom ist und L 1,,L n Literale sind. Ein Normal Program besteht
MehrEinführung in die Logik (Vorkurs)
Einführung in die Logik (Vorkurs) Jürgen Koslowski 2014-04-07 Ein Beispiel Familie A will im kommenden Jahr eine Waschmaschine, ein Auto und ein Moped anschaffen. Aber falls Herr A seinen üblichen Bonus
MehrErfüllbarkeit von Horn-Klauseln und Berechnung des kleinsten Herbrand-Modells
Erfüllbarkeit von Horn-Klauseln und Berechnung des kleinsten Herbrand-Modells Effiziente Entscheidung der Erfüllbarkeit von Horn-Klauseln Effiziente Berechnung des kleinsten Herbrand-Modells M P Naive
Mehr1 Inhalt der Vorlesung B-PS1
1 Inhalt der Vorlesung B-PS1 1.1 Tag 1 1.1.1 Vormittag Geschichte der Programmiersprachen Wie viele Programmiersprachen gibt es? https://en.wikipedia.org/wiki/list_of_programming_languages Esoterische
MehrLösungen zur Vorlesung Berechenbarkeit und Komplexität
Lehrstuhl für Informatik 1 WS 009/10 Prof. Dr. Berthold Vöcking 0.0.010 Alexander Skopalik Thomas Kesselheim Lösungen zur Vorlesung Berechenbarkeit und Komplexität. Zulassungsklausur Aufgabe 1: (a) Worin
MehrDas Heiratsproblem. Definition Matching
Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung
MehrLogik für Informatiker
Logik für Informatiker 2. Aussagenlogik Teil 6 14.05.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Bis jetzt Syntax der Aussagenlogik: Definition der Menge
Mehr