3. Lernen mit Vorwissen

Größe: px
Ab Seite anzeigen:

Download "3. Lernen mit Vorwissen"

Transkript

1 3. Lernen mit Vorwissen Wissen beim Lernen 3. Lernen mit Vorwissen Sei Beschreibungen die Konjunktion aller Beispiele der Trainingsmenge und Klassifizierungen die Konjunktion aller Beispielklassifizierungen. Eine Hypothese, die die Beobachtungen erklärt, muß die folgende Eigenschaft erfüllen: Hypothese Beschreibungen = Klassifizierungen Man bezeichnet dies als Bedingung der logischen Konsequenz, wobei die Hypothese die Unbekannte ist. Rein induktives Lernen bedeutet, daß die Bedingung aufgelöst wird, wobei Hypothese aus einem vordefinierten Hypothesenraum gewählt wird. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 111

2 3. Lernen mit Vorwissen Wissen beim Lernen Der bisher gezeigte Ansatz des Lernens ist wissensfrei. Moderne Ansätze gehen dagegen von Agenten aus, die schon über Vorwissen verfügen und versuchen dazuzulernen. Ein kumulativer Lernprozess verwendet sein Vorwissen und ergänzt es im Laufe der Zeit. Prior knowledge Observations Knowledge-based inductive learning Hypotheses Predictions Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 112

3 3. Lernen mit Vorwissen Wissen beim Lernen Beispiel 3.1. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 113

4 3. Lernen mit Vorwissen Wissen beim Lernen Ein Brasilienreisender trifft erstmals auf einen Brasilianer. Er stellt fest, daß dieser portugiesisch spricht und schließt daraus, daß alle Brasilianer portugiesisch sprechen. Obwohl der Brasilianer Fernando heißt, schließt er aber nicht, daß alle Brasilianer Fernando heißen. Ein pharmakologisch unwissender aber diagnostisch gebildeter Medizinstudent beobachtet eine Sitzung zwischen einem Patienten und einem erfahrenen Internisten. Nach einigen Fragen und Antworten teilt der Experte dem Patienten mit, daß er ein bestimmtes Antibiotikum einnehmen soll. Der Medizinstudent leitet die allgemeine Regel ab, daß dieses Antibiotikum wirksam für eine bestimmte Art von Infektion ist. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 114

5 3. Lernen mit Vorwissen Wissen beim Lernen Fazit: Der Einsatz von Vorwissen erlaubt ein viel schnelleres Lernen als in rein induktiver Form. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 115

6 3. Lernen mit Vorwissen Allgemeine Lernschemata Allgemeine Lernschemata Bei der Rösteidechse verallgemeinern die Höhlenmenschen, indem sie den Erfolg des angespitzten Stöckchens erklären. Daraus können Sie eine allgemeine Regel ableiten. Diese Art des Verallgemeinerunsprozesses heißt erklärungsbasiertes Lernen (EBL). Hypothese Beschreibungen = Vorwissen = Klassifizierungen Hypothese Der Agent lernt faktisch nichts neues, das neue Wissen kann zukünftige Ableitungen aber effizienter machen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 116

7 3. Lernen mit Vorwissen Allgemeine Lernschemata Erklärungsbasiertes Lernen wird hauptsächlich als Methode für die Umwandlung von grundsätzlichen Theorien in praktisches, spezielles Wissen betrachtet. Der Brasilienreisende findet keine Erklärung dafür, daß Fernando portugiesisch spricht. Vielmehr nutzt der Brasilienreisende sein Wissen über eine funktionale Abhängigkeit bei der Sprache. Gleichzeitig weiß er aber auch, daß solch eine funktionale Abhängigkeit nicht für Namen gilt. Hypothese Beschreibungen = Vorwissen Beschreibungen Klassifizierungen = Klassifizierungen Hypothese Diese Art der Verallgemeinerung heißt relevanzbasiertes Lernen (RBL). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 117

8 3. Lernen mit Vorwissen Allgemeine Lernschemata Das Vorwissen des Medizinstudenten reicht aus, um die Krankheit D aus den Symptomen abzuleiten. Das ist jedoch nicht ausreichend, um zu erklären, daß der Arzt die Medizin M verordnet. Der Student muß eine weitere Regel anwenden, nämlich daß M im Allgemeinen gegen D wirkt. Damit kann der Student erklären, warum der Experte M verordnet. Vorwissen Hypothese Beschreibungen = Klassifizierungen Das Vorwissen und die neue Hypothese werden kombiniert, um die Beispiele zu erklären. Verfahren, die diesem Schema entsprechen, heißen wissensbasiertes induktives Lernen oder KBIL-Algorithmen (Knowledge-Based Inductive Learning). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 118

9 3. Lernen mit Vorwissen Allgemeine Lernschemata Sie werden hauptsächlich im Rahmen der induktiven Logikprogrammierung (ILP) angewendet. Das Vorwissen dient zur Reduzierung der Lernkomplexität. Weil jede erzeugte Hypothese mit dem Vorwissen sowie mit den Beobachtungen konsistent sein muß, wird die effektive Größe des Hypothesenraums reduziert. Für jede Menge an Beobachtungen kann die Größe der Hypothesen für den Aufbau einer Erklärung für die Beobachtungen stark reduziert werden, weil das Vorwissen zur Verfügung steht, um die neuen Regeln für die Erklärung der Beobachtungen zu unterstützen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 119

10 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Erklärungsbasiertes Lernen Die einfachste Art von erklärungsbasiertem Lernen ist die Technik der Memoisierung: Ergebnisse von Funktionsaufrufen/Anfragen werden gespeichert, um zu einem späteren Zeitpunkt die Funktion/Anfrageergebnis schneller berechnen zu können. Beispiel 3.2. Memoisierung in Prolog für Eltern-Kind-Datenbank, Diskussion Vor- und Nachteile. Erklärungsbasiertes Lernen führt die Technik der Memoisierung weiter, indem es allgemeine Regeln erzeugt, die eine ganze Klasse von Fällen abdecken. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 120

11 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Beispiel 3.3. Aus der Differentialrechnung wissen wir: d dx x = 1 d dx (f(x) g(x)) = ( d dx f(x)) g(x) + f(x)( d dx g(x)) Durch Kombination dieser beiden Regeln erhalten wir: d dx x2 = 2x Damit haben wir eine neue Regel, die spätere Ableitungsermittlungen verkürzt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 121

12 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Die Zivilisation macht Fortschritte, indem sie die Anzahl wichtiger Operationen erweitert, die wir ausführen können, ohne darüber nachzudenken. Es ist viel einfacher zu erklären, warum etwas eine gute Idee ist, als eine gute Idee zu erfinden. Beispiel 3.4. Wir betrachten die folgenden Regeln: Rewrite(u, v) Simplify(v, w) Simplify(u, w) Primitive(u) Simplify(u, u) ArithmeticUnknown(u) Primitive(u) Number(u) Primitive(u) Rewrite(1 u,u) Rewrite(0 + u,u)... Wir wollen 1 (0 + X) vereinfachen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 122

13 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Simplify(1 (0+X),w) Rewrite(1 (0+X),v) Yes, {v / 0+X} Simplify(0+X,w) Rewrite(0+X,v ) Yes, {v / X} Simplify(X,w) {w / X} Primitive(X) Simplify(x (y+z),w) ArithmeticUnknown(X) Yes, { } Rewrite(x (y+z),v) Yes, {x / 1, v / y+z} Rewrite(y+z,v ) Yes, {y / 0, v / z} Simplify(y+z,w) Simplify(z,w) {w / z} Primitive(z) ArithmeticUnknown(z) Yes, { } Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 123

14 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Aus dem allgemeinen Beweisbaum ergibt sich: Rewrite(1 (0+z), 0+z) Rewrite(0+z, z) ArithmeticUnknown(z) Simplify(1 (0 + z),z) Die ersten beiden Literale sind aber unabhängig von z immer wahr. Daher kann die Regel vereinfacht werden zu: ArithmeticUnknown(z) Simplify(1 (0 + z), z) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 124

15 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Der EBL-Prozess funktioniert allgemein wie folgt: 1. Für ein gegebenes Beispiel konstruieren wir einen Beweis auf Basis des verfügbaren Vorwissens. 2. Parallel dazu erzeugen wir einen verallgemeinerten Beweisbaum für das variablenunterlegte Ziel unter Verwendung derselben Inferenzschritte wie im Orginalbeweis. 3. Wir bauen eine neue Regel auf, deren linke Seite aus den Blättern des Beweisbaums besteht und deren rechte Seite das variablenunterlegte Ziel ist (nachdem die erforderlichen Bindungen aus dem verallgemeinerten Beweis angewendet wurden). 4. Wir verwerfen alle Bedingungen, die belanglos für die Werte der Variablen im Ziel sind. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 125

16 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Effizienzverbesserungen bei EBL Der verallgemeinerte Beweisbaum aus Beispiel 3.4 liefert prinzipiell mehr als eine Regel, z.b. auch die allgemeinere Regel Primitive(z) Simplify(1 (0 + z), z) Eine Regel kann von jedem beliebigen Unterbaum des verallgemeinerten Beweisbaums extrahiert werden. Welche dieser Regeln nehmen wir? Es ist eine Frage der Effizienz! Das Hinzufügen vieler Regeln kann den Inferenzprozess verlangsamen, weil diese Regeln auch für den negativen Fall überprüft werden müssen. Steigerung des Verzweigungsfaktors Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 126

17 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Um den verlangsamten Inferenzprozess zu kompensieren, müssen die abgeleiteten Regeln eine wesentlich höhere Effizienz für die Fälle liefern, die von den Regeln abgedeckt werden. Dies legt nahe, daß abgeleitete Regeln möglichst allgemein sein sollten, da sie dann mehr Fälle abdecken. Ein vielversprechender Ansatz ist es, das Effizienzproblem empirisch anzugehen. Durch Verallgemeinerung von Beispielproblemen macht EBL die Wissensbasis effizienter für Probleme, die in der Zukunft berechtigt zu erwarten sind. Dies funktioniert, solange die Verteilung der Beispiele aus der Vergangenheit in etwa dieselbe ist wie für zukünftige Beispiele. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 127

18 3. Lernen mit Vorwissen Relevanzbasiertes Lernen Relevanzbasiertes Lernen Der Brasilienreisende nutzt folgendes aus: Nationalität(x, n) Nationalität(y, n) Sprache(x, l) Sprache(y, l) Dies ist eine strenge Form der Relevanz: Die Sprache ist eine Funktion der Nationalität. Es liegt eine sogenannte funktionale Abhängigkeit vor. Notation: Nationalität(x, n) Sprache(x, n) bzw. Nationalität Sprache Für das relevanzbasierte Lernen ist jetzt interessant, wie solche funktionalen Abhängigkeiten gelernt werden können. Besonders interessant sind volle funktionale Abhängigkeiten, d.h.: A b A b für alle A A Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 128

19 3. Lernen mit Vorwissen Relevanzbasiertes Lernen Das Problem, solche funktionale Abhängigkeiten zu lernen, ist N P- vollständig. Führe eine Suche im Suchraum der funktionalen Abhängigkeiten durch. Überprüfe zunächste alle funktionalen Abhängigkeiten mit einem Prädikat, dann mit zwei usw. bis eine konsistente funktionale Abhängigkeit gefunden wurde. Aufwand: O(n p ) falls die funktionale Abhängigkeit aus p Attributen besteht bei n Attributen insgesamt. Anwendung: Verknüpfung von relevanzbasiertem Lernen mit Entscheidungsbäumen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 129

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

Deduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung

Deduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches Was folgt logisch aus dieser Theorie? Deduktion: aus

Mehr

Deduktion in der Aussagenlogik

Deduktion in der Aussagenlogik Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches. Was folgt logisch aus dieser Theorie? Deduktion: aus

Mehr

Künstliche Intelligenz Logische Agenten & Resolution

Künstliche Intelligenz Logische Agenten & Resolution Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende

Mehr

Deduktives Lernen Explanation-Based Learning

Deduktives Lernen Explanation-Based Learning Deduktives Lernen Explanation-Based Learning Algorithmus grundlegende Idee anhand eines Beispiels Eigenschaften von EBL Utility Problem Implementierung als PROLOG Meta-Interpreter Operationalisierung 1

Mehr

[A] = c(a) in den Einheiten mol/l (1) Eine tiefgestellte Null wie bei [A] 0 zeigt an, dass es sich um eine Anfangskonzentration

[A] = c(a) in den Einheiten mol/l (1) Eine tiefgestellte Null wie bei [A] 0 zeigt an, dass es sich um eine Anfangskonzentration 1 Ableitung des Massenwirkungsgesetzes Mit dem Umfüllexperiment haben wir herausgefunden, dass die Stoffmengen oder die Stoffmengenkonzentrationen im Gleichgewicht auf einen Grenzwert zulaufen. Außerdem

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Minimalpolynome und Implikanten

Minimalpolynome und Implikanten Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Allgemeingültige Aussagen

Allgemeingültige Aussagen Allgemeingültige Aussagen Definition 19 Eine (aussagenlogische) Formel p heißt allgemeingültig (oder auch eine Tautologie), falls p unter jeder Belegung wahr ist. Eine (aussagenlogische) Formel p heißt

Mehr

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus Problemreduktion durch Transformation am Beispiel des Erweiterten Euklidschen Algorithmus Wolfgang Windsteiger JKU Linz, A 4040 Linz, Austria Kurzfassung Transformation beschreibt im Wesentlichen die algorithmische

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene

Mehr

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer

Mehr

Grundlagen der Theoretischen Informatik

Grundlagen der Theoretischen Informatik FH Wedel Prof. Dr. Sebastian Iwanowski GTI22 Folie 1 Grundlagen der Theoretischen Informatik Sebastian Iwanowski FH Wedel Kap. 2: Logik, Teil 2.2: Prädikatenlogik FH Wedel Prof. Dr. Sebastian Iwanowski

Mehr

Musterloesung: Uebung 3

Musterloesung: Uebung 3 Musterloesung: Uebung 3 Sebastian Scherer December 10, 2012 Aufgabe 1 Die gegebene Funktion ist durch f((b 1, b 2, b 3 )) = 1 b 1 b 2 b 3 (1) definiert. Um die DNF anzugeben muessen wir einfach die Formel

Mehr

Inhalt. Wissensbasierte Diagnose Entscheidungsbäume Bayes-Netze Fallbasiertes Schließen Funktionsorientierte Diagnose Modellbasierte Systeme

Inhalt. Wissensbasierte Diagnose Entscheidungsbäume Bayes-Netze Fallbasiertes Schließen Funktionsorientierte Diagnose Modellbasierte Systeme Inhalt 2 Wissensbasierte Diagnose 3 Diagnose bezeichnet hier das Rückschließen auf mögliche Ursachen, welche zu beobachtbaren Wirkungen führen. Heutige Diagnosesysteme haben gute Diagnosebasisfunktionen,

Mehr

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen

Mehr

Analytische Lösung algebraischer Gleichungen dritten und vierten Grades

Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Inhaltsverzeichnis 1 Einführung 1 2 Gleichungen dritten Grades 3 3 Gleichungen vierten Grades 7 1 Einführung In diesem Skript werden

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

Übersicht. 7. Prädikatenlogik 1. Stufe

Übersicht. 7. Prädikatenlogik 1. Stufe Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik

Mehr

Induktive Logikprogrammierung

Induktive Logikprogrammierung 3. Lernen mit Vorwissen Induktive Logikprogrammierung Induktive Logikprogrammierung Induktive Logikprogrammierung (ILP) kombiniert induktives Lernen mit Repräsentationen in Prädikatenlogik erster Stufe,

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:

Mehr

Resolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren:

Resolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren: Resolutionskalkül Ein Kalkül ist eine Kollektion von syntaktischen Umformungsregeln, die unter gegebenen Voraussetzungen aus bereits vorhandenen Formeln neue Formeln erzeugen. Der Resolutionskalkül besteht

Mehr

Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln

Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Frank Heitmann [email protected] 9. Juni 2015 Frank Heitmann [email protected] 1/36 Ersetzbarkeitstheorem

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein

Mehr

Case-Based Reasoning und anderen Inferenzmechanismen

Case-Based Reasoning und anderen Inferenzmechanismen Case-Based Reasoning und anderen Inferenzmechanismen Daniel Müller 21 April 2006 DM () CBR und Inferenz 21 April 2006 1 / 31 Contents 1 Einleitung 2 Inferenzmechanismen Statistische Verfahren Data Mining

Mehr

Logisches und funktionales Programmieren

Logisches und funktionales Programmieren Prof. Dr. Christoph Beierle, Dr. Harald Ganzinger, Prof. Dr. Michael Hanus Kurs 01816 Logisches und funktionales Programmieren LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten

Mehr

Logik Vorlesung 5: Grundlagen Resolution

Logik Vorlesung 5: Grundlagen Resolution Logik Vorlesung 5: Grundlagen Resolution Andreas Maletti 21. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen Weitere

Mehr

Sätze über ganzrationale Funktionen

Sätze über ganzrationale Funktionen Sätze über ganzrationale Funktionen 1. Sind alle Koeffizienten a i ganzzahlig und ist x 0 eine ganzzahlige Nullstelle, so ist x 0 ein Teiler von a 0. 2. Haben alle Koeffizienten dasselbe Vorzeichen, so

Mehr

Klausur zu Mathematische Grundlagen BachelorStudiengänge der Informatik

Klausur zu Mathematische Grundlagen BachelorStudiengänge der Informatik Klausur zu Mathematische Grundlagen BachelorStudiengänge der Informatik SS 2016, 16.07.2016 Prof. Dr. Hans-Jürgen Steens Name: Vorname: Matrikelnummer: Die Klausur besteht aus 23 Aufgaben. Es sind maximal

Mehr

Die Unentscheidbarkeit extensionaler Eigenschaften von Turingmaschinen: der Satz von Rice

Die Unentscheidbarkeit extensionaler Eigenschaften von Turingmaschinen: der Satz von Rice Die Unentscheidbarkeit extensionaler Eigenschaften von Turingmaschinen: der Satz von Rice Holger Arnold Dieser Text befasst sich mit der Frage, unter welchen Bedingungen das Problem, zu bestimmen, ob die

Mehr

Expertensysteme / XPS

Expertensysteme / XPS Expertensysteme / XPS Alexander Pentzlin und Thiemo Bannasch KI II Claes Neuefeind 27.06.2012 1 Inhalt Was ist ein Expertensystem Geschichtlicher Hintergrund Prinzip eines XPS Komponenten Realisierungsprinzipien

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Logik Vorlesung 4: Horn-Logik und Kompaktheit

Logik Vorlesung 4: Horn-Logik und Kompaktheit Logik Vorlesung 4: Horn-Logik und Kompaktheit Andreas Maletti 14. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen

Mehr

Rechnerstrukturen WS 2012/13

Rechnerstrukturen WS 2012/13 Rechnerstrukturen WS 2012/13 Boolesche Funktionen und Schaltnetze Schaltnetze Rechner-Arithmetik Addition Bessere Schaltnetze zur Addition Carry-Look-Ahead-Addierer Multiplikation Wallace-Tree Hinweis:

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

Grammatiken. Einführung

Grammatiken. Einführung Einführung Beispiel: Die arithmetischen Ausdrücke über der Variablen a und den Operationen + und können wie folgt definiert werden: a, a + a und a a sind arithmetische Ausdrücke Wenn A und B arithmetische

Mehr

Vorlesung. Logik und Beweise

Vorlesung. Logik und Beweise Vorlesung Logik und Beweise Der folgende Abschnitt dient nur zur Wiederholung des Stoffes der ersten Vorlesung und sollte nur genannt bzw. teilweise schon vor der Vorlesung angeschrieben werden. Wiederholung

Mehr

Alphabet, formale Sprache

Alphabet, formale Sprache n Alphabet Alphabet, formale Sprache l nichtleere endliche Menge von Zeichen ( Buchstaben, Symbole) n Wort über einem Alphabet l endliche Folge von Buchstaben, die auch leer sein kann ( ε leere Wort) l

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 28. Aussagenlogik: DPLL-Algorithmus Malte Helmert Universität Basel 2. Mai 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26. Grundlagen 27. Logisches

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme FH Wedel Prof. Dr. Sebastian Iwanowski WBS6 Folie 1 Wissensbasierte Systeme Sebastian Iwanowski FH Wedel Kap. 6: Wissensbasierte Diagnosemethoden im Vergleich FH Wedel Prof. Dr. Sebastian Iwanowski WBS6

Mehr

Die Anfänge der Logik

Die Anfänge der Logik Die Anfänge der Logik Die Entwicklung des logischen Denkens vor Aristoteles Holger Arnold Universität Potsdam, Institut für Informatik [email protected] Grundfragen Was ist Logik? Logik untersucht

Mehr

Beispiel Gröbnerbasen-Berechnung

Beispiel Gröbnerbasen-Berechnung Beispiel Gröbnerbasen-Berechnung Bsp: Seien f 1 = x 2 y + xy, f 2 = xy 2 + 1 R[x, y] in grlex-ordnung. S(f 1, f 2 ) = yf 1 xf 2 = xy 2 x. Division liefert S(f 1, f 2 ) = 1 f 2 x 1. Wir fügen f 3 = x 1

Mehr

Vorlesung. Beweise und Logisches Schließen

Vorlesung. Beweise und Logisches Schließen Vorlesung Beweise und Logisches Schließen Der folgende Abschnitt dient nur zur Wiederholung des Stoffes der ersten Vorlesung und sollten nur genannt bzw. Teilweise schon vor der Vorlesung angeschrieben

Mehr

Bisher. Programme. Ausdrücke und ihre Auswertung (Substitutionsmodell)

Bisher. Programme. Ausdrücke und ihre Auswertung (Substitutionsmodell) Bisher Programme Ausdrücke und ihre Auswertung (Substitutionsmodell) Konstruktionsanleitung für Prozeduren Kurzbeschreibung Sorten und Verträge Gerüst Testfälle Rumpf ausfüllen Testen 2.21 Erinnerung:

Mehr

Oft gebraucht man einfach nur das Wort Mannigfaltigkeit, und meint eine topologische Banachmannigfaltigkeit. Das kommt auf den Kontext an.

Oft gebraucht man einfach nur das Wort Mannigfaltigkeit, und meint eine topologische Banachmannigfaltigkeit. Das kommt auf den Kontext an. Mannigfaltigkeiten (Version 19.11. 14:30) Eine n-dimensionale topologische Mannigfaltigkeit ist ein topologischer Raum, der lokal homöomorph zum R n ist. Entsprechend könnten wir natürlich auch eine topologische

Mehr

Wir halten in einem s t Diagramm das Anfahren eines Autos fest. Wir nehmen an, dass zwischen Weg und Zeit der einfache Zusammenhang

Wir halten in einem s t Diagramm das Anfahren eines Autos fest. Wir nehmen an, dass zwischen Weg und Zeit der einfache Zusammenhang . Die Momentangeschwindigkeit eines Autos Wir halten in einem s t Diagramm das Anfahren eines Autos fest. Wir nehmen an, dass zwischen Weg und Zeit der einfache Zusammenhang s(t) = t gilt. Im s t Diagramm

Mehr

2. Symmetrische Gruppen

2. Symmetrische Gruppen 14 Andreas Gathmann 2 Symmetrische Gruppen Im letzten Kapitel haben wir Gruppen eingeführt und ihre elementaren Eigenschaften untersucht Wir wollen nun eine neue wichtige Klasse von Beispielen von Gruppen

Mehr

Logische und funktionale Programmierung

Logische und funktionale Programmierung Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca [email protected] 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN

Mehr

e x e x x e x + e x (falls die Grenzwerte existieren), e x e x 1 e 2x = lim x 1

e x e x x e x + e x (falls die Grenzwerte existieren), e x e x 1 e 2x = lim x 1 Aufgabe a Hier kann man die Regel von de l Hospital zweimal anwenden (jeweils und die Ableitung des Nenners ist für hinreichend große x ungleich. Dies führt auf e x e x e x + e x e x + e x e x e x e x

Mehr

Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I

Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I 1. Mengen und Abbildungen In der Mathematik beschäftigt man sich immer -direkt oder indirekt- mit Mengen. Wir benötigen den Mengenbegriff

Mehr

Elementare Beweistechniken

Elementare Beweistechniken Elementare Beweistechniken Beispiel: Satzform (Pythagoras) Voraussetzung: Gegeben sei ein beliebiges rechtwinkeliges Dreieck, die Länge der Hypothenuse sei c und die Längen der anderen Seiten seien a und

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme WBS7 Slide 1 Wissensbasierte Systeme Vorlesung 7 vom 01.12.2004 Sebastian Iwanowski FH Wedel WBS7 Slide 2 Wissensbasierte Systeme 1. Motivation 2. Prinzipien und Anwendungen 3. Logische Grundlagen 4. Suchstrategien

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich [email protected] 1 Einleitung In der linearen

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Einführung in die mathematische Logik

Einführung in die mathematische Logik Prof. Dr. H. Brenner Osnabrück SS 2014 Einführung in die mathematische Logik Vorlesung 3 Tautologien In der letzten Vorlesung haben wir erklärt, wie man ausgehend von einer Wahrheitsbelegung λ der Aussagevariablen

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Ab 5.11.: Vorlesung im HSG H.001

Ab 5.11.: Vorlesung im HSG H.001 Rechnerstrukturen WS 202/3 Ab 5..: Vorlesung im HSG H.00 Boolesche Funktionen und Schaltnetze KV-Diagramme Beschreibung und Beispiel Minimalpolynome Algorithmus von Quine und McCluskey Einleitung, Berechnung

Mehr

2 Funktionen in mehreren Variablen: Differentiation

2 Funktionen in mehreren Variablen: Differentiation Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v

Mehr

Logik I. Symbole, Terme, Formeln

Logik I. Symbole, Terme, Formeln Logik I Symbole, Terme, Formeln Wie jede geschriebene Sprache basiert die Prädikatenlogik erster Stufe auf einem Alphabet, welches aus den folgenden Symbolen besteht: (a) Variabeln wie zum Beispiel v 0,v

Mehr

Vollständige Induktion

Vollständige Induktion Angenommen, wir wollen zeigen, dass eine Aussage P(n) für alle n N wahr ist. Anders ausgedrückt: Es gilt n N : P(n) Hierzu können wir die Technik der vollständigen Induktion verwenden. Wir zeigen, dass

Mehr

B*-BÄUME. Ein Index ist seinerseits wieder nichts anderes als eine Datei mit unpinned Records.

B*-BÄUME. Ein Index ist seinerseits wieder nichts anderes als eine Datei mit unpinned Records. B*-Bäume 1 B*-BÄUME Beobachtung: Ein Index ist seinerseits wieder nichts anderes als eine Datei mit unpinned Records. Es gibt keinen Grund, warum man nicht einen Index über einem Index haben sollte, und

Mehr

NP-Vollständigkeit des Erfüllbarkeitsproblems

NP-Vollständigkeit des Erfüllbarkeitsproblems NP-Vollständigkeit des Erfüllbarkeitsproblems Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 25 Def: NP-Härte Definition (NP-Härte) Ein Problem L heißt NP-hart,

Mehr

Logikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog

Logikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog Logikprogrammierung Berechnung durch Resolution Die Programmiersprache Prolog Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 6.1 Logikprogrammierung Berechnung durch Resolution 213 Resolution

Mehr

Die Regeln von de l Hospital

Die Regeln von de l Hospital Die Regeln von de l Hospital Von Florian Modler Guillaume Francois Antoine de l Hospital war ein französischer Mathematiker und Aristokrat. Er wurde 66 geboren und verstarb 704 im Alter von 43 Jahren.

Mehr

12 Wahrheitsbäume zur Beurteilung der logischen Wahrheit von Sätzen der Sprache AL

12 Wahrheitsbäume zur Beurteilung der logischen Wahrheit von Sätzen der Sprache AL 12 Wahrheitsbäume zur Beurteilung der logischen Wahrheit von Sätzen der Sprache L Eine zweite Methode Das Wahrheitsbaumverfahren Dieses Verfahren beruht auf der Methode des indirekten Beweises. Wahrheitsbäume

Mehr

AutoSPARQL. Let Users Query Your Knowledge Base

AutoSPARQL. Let Users Query Your Knowledge Base AutoSPARQL Let Users Query Your Knowledge Base Christian Olczak Seminar aus maschinellem Lernen WS 11/12 Fachgebiet Knowledge Engineering Dr. Heiko Paulheim / Frederik Janssen 07.02.2012 Fachbereich Informatik

Mehr