3. Lernen mit Vorwissen
|
|
|
- Oldwig Kraus
- vor 9 Jahren
- Abrufe
Transkript
1 3. Lernen mit Vorwissen Wissen beim Lernen 3. Lernen mit Vorwissen Sei Beschreibungen die Konjunktion aller Beispiele der Trainingsmenge und Klassifizierungen die Konjunktion aller Beispielklassifizierungen. Eine Hypothese, die die Beobachtungen erklärt, muß die folgende Eigenschaft erfüllen: Hypothese Beschreibungen = Klassifizierungen Man bezeichnet dies als Bedingung der logischen Konsequenz, wobei die Hypothese die Unbekannte ist. Rein induktives Lernen bedeutet, daß die Bedingung aufgelöst wird, wobei Hypothese aus einem vordefinierten Hypothesenraum gewählt wird. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 111
2 3. Lernen mit Vorwissen Wissen beim Lernen Der bisher gezeigte Ansatz des Lernens ist wissensfrei. Moderne Ansätze gehen dagegen von Agenten aus, die schon über Vorwissen verfügen und versuchen dazuzulernen. Ein kumulativer Lernprozess verwendet sein Vorwissen und ergänzt es im Laufe der Zeit. Prior knowledge Observations Knowledge-based inductive learning Hypotheses Predictions Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 112
3 3. Lernen mit Vorwissen Wissen beim Lernen Beispiel 3.1. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 113
4 3. Lernen mit Vorwissen Wissen beim Lernen Ein Brasilienreisender trifft erstmals auf einen Brasilianer. Er stellt fest, daß dieser portugiesisch spricht und schließt daraus, daß alle Brasilianer portugiesisch sprechen. Obwohl der Brasilianer Fernando heißt, schließt er aber nicht, daß alle Brasilianer Fernando heißen. Ein pharmakologisch unwissender aber diagnostisch gebildeter Medizinstudent beobachtet eine Sitzung zwischen einem Patienten und einem erfahrenen Internisten. Nach einigen Fragen und Antworten teilt der Experte dem Patienten mit, daß er ein bestimmtes Antibiotikum einnehmen soll. Der Medizinstudent leitet die allgemeine Regel ab, daß dieses Antibiotikum wirksam für eine bestimmte Art von Infektion ist. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 114
5 3. Lernen mit Vorwissen Wissen beim Lernen Fazit: Der Einsatz von Vorwissen erlaubt ein viel schnelleres Lernen als in rein induktiver Form. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 115
6 3. Lernen mit Vorwissen Allgemeine Lernschemata Allgemeine Lernschemata Bei der Rösteidechse verallgemeinern die Höhlenmenschen, indem sie den Erfolg des angespitzten Stöckchens erklären. Daraus können Sie eine allgemeine Regel ableiten. Diese Art des Verallgemeinerunsprozesses heißt erklärungsbasiertes Lernen (EBL). Hypothese Beschreibungen = Vorwissen = Klassifizierungen Hypothese Der Agent lernt faktisch nichts neues, das neue Wissen kann zukünftige Ableitungen aber effizienter machen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 116
7 3. Lernen mit Vorwissen Allgemeine Lernschemata Erklärungsbasiertes Lernen wird hauptsächlich als Methode für die Umwandlung von grundsätzlichen Theorien in praktisches, spezielles Wissen betrachtet. Der Brasilienreisende findet keine Erklärung dafür, daß Fernando portugiesisch spricht. Vielmehr nutzt der Brasilienreisende sein Wissen über eine funktionale Abhängigkeit bei der Sprache. Gleichzeitig weiß er aber auch, daß solch eine funktionale Abhängigkeit nicht für Namen gilt. Hypothese Beschreibungen = Vorwissen Beschreibungen Klassifizierungen = Klassifizierungen Hypothese Diese Art der Verallgemeinerung heißt relevanzbasiertes Lernen (RBL). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 117
8 3. Lernen mit Vorwissen Allgemeine Lernschemata Das Vorwissen des Medizinstudenten reicht aus, um die Krankheit D aus den Symptomen abzuleiten. Das ist jedoch nicht ausreichend, um zu erklären, daß der Arzt die Medizin M verordnet. Der Student muß eine weitere Regel anwenden, nämlich daß M im Allgemeinen gegen D wirkt. Damit kann der Student erklären, warum der Experte M verordnet. Vorwissen Hypothese Beschreibungen = Klassifizierungen Das Vorwissen und die neue Hypothese werden kombiniert, um die Beispiele zu erklären. Verfahren, die diesem Schema entsprechen, heißen wissensbasiertes induktives Lernen oder KBIL-Algorithmen (Knowledge-Based Inductive Learning). Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 118
9 3. Lernen mit Vorwissen Allgemeine Lernschemata Sie werden hauptsächlich im Rahmen der induktiven Logikprogrammierung (ILP) angewendet. Das Vorwissen dient zur Reduzierung der Lernkomplexität. Weil jede erzeugte Hypothese mit dem Vorwissen sowie mit den Beobachtungen konsistent sein muß, wird die effektive Größe des Hypothesenraums reduziert. Für jede Menge an Beobachtungen kann die Größe der Hypothesen für den Aufbau einer Erklärung für die Beobachtungen stark reduziert werden, weil das Vorwissen zur Verfügung steht, um die neuen Regeln für die Erklärung der Beobachtungen zu unterstützen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 119
10 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Erklärungsbasiertes Lernen Die einfachste Art von erklärungsbasiertem Lernen ist die Technik der Memoisierung: Ergebnisse von Funktionsaufrufen/Anfragen werden gespeichert, um zu einem späteren Zeitpunkt die Funktion/Anfrageergebnis schneller berechnen zu können. Beispiel 3.2. Memoisierung in Prolog für Eltern-Kind-Datenbank, Diskussion Vor- und Nachteile. Erklärungsbasiertes Lernen führt die Technik der Memoisierung weiter, indem es allgemeine Regeln erzeugt, die eine ganze Klasse von Fällen abdecken. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 120
11 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Beispiel 3.3. Aus der Differentialrechnung wissen wir: d dx x = 1 d dx (f(x) g(x)) = ( d dx f(x)) g(x) + f(x)( d dx g(x)) Durch Kombination dieser beiden Regeln erhalten wir: d dx x2 = 2x Damit haben wir eine neue Regel, die spätere Ableitungsermittlungen verkürzt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 121
12 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Die Zivilisation macht Fortschritte, indem sie die Anzahl wichtiger Operationen erweitert, die wir ausführen können, ohne darüber nachzudenken. Es ist viel einfacher zu erklären, warum etwas eine gute Idee ist, als eine gute Idee zu erfinden. Beispiel 3.4. Wir betrachten die folgenden Regeln: Rewrite(u, v) Simplify(v, w) Simplify(u, w) Primitive(u) Simplify(u, u) ArithmeticUnknown(u) Primitive(u) Number(u) Primitive(u) Rewrite(1 u,u) Rewrite(0 + u,u)... Wir wollen 1 (0 + X) vereinfachen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 122
13 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Simplify(1 (0+X),w) Rewrite(1 (0+X),v) Yes, {v / 0+X} Simplify(0+X,w) Rewrite(0+X,v ) Yes, {v / X} Simplify(X,w) {w / X} Primitive(X) Simplify(x (y+z),w) ArithmeticUnknown(X) Yes, { } Rewrite(x (y+z),v) Yes, {x / 1, v / y+z} Rewrite(y+z,v ) Yes, {y / 0, v / z} Simplify(y+z,w) Simplify(z,w) {w / z} Primitive(z) ArithmeticUnknown(z) Yes, { } Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 123
14 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Aus dem allgemeinen Beweisbaum ergibt sich: Rewrite(1 (0+z), 0+z) Rewrite(0+z, z) ArithmeticUnknown(z) Simplify(1 (0 + z),z) Die ersten beiden Literale sind aber unabhängig von z immer wahr. Daher kann die Regel vereinfacht werden zu: ArithmeticUnknown(z) Simplify(1 (0 + z), z) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 124
15 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Der EBL-Prozess funktioniert allgemein wie folgt: 1. Für ein gegebenes Beispiel konstruieren wir einen Beweis auf Basis des verfügbaren Vorwissens. 2. Parallel dazu erzeugen wir einen verallgemeinerten Beweisbaum für das variablenunterlegte Ziel unter Verwendung derselben Inferenzschritte wie im Orginalbeweis. 3. Wir bauen eine neue Regel auf, deren linke Seite aus den Blättern des Beweisbaums besteht und deren rechte Seite das variablenunterlegte Ziel ist (nachdem die erforderlichen Bindungen aus dem verallgemeinerten Beweis angewendet wurden). 4. Wir verwerfen alle Bedingungen, die belanglos für die Werte der Variablen im Ziel sind. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 125
16 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Effizienzverbesserungen bei EBL Der verallgemeinerte Beweisbaum aus Beispiel 3.4 liefert prinzipiell mehr als eine Regel, z.b. auch die allgemeinere Regel Primitive(z) Simplify(1 (0 + z), z) Eine Regel kann von jedem beliebigen Unterbaum des verallgemeinerten Beweisbaums extrahiert werden. Welche dieser Regeln nehmen wir? Es ist eine Frage der Effizienz! Das Hinzufügen vieler Regeln kann den Inferenzprozess verlangsamen, weil diese Regeln auch für den negativen Fall überprüft werden müssen. Steigerung des Verzweigungsfaktors Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 126
17 3. Lernen mit Vorwissen Erklärungsbasiertes Lernen Um den verlangsamten Inferenzprozess zu kompensieren, müssen die abgeleiteten Regeln eine wesentlich höhere Effizienz für die Fälle liefern, die von den Regeln abgedeckt werden. Dies legt nahe, daß abgeleitete Regeln möglichst allgemein sein sollten, da sie dann mehr Fälle abdecken. Ein vielversprechender Ansatz ist es, das Effizienzproblem empirisch anzugehen. Durch Verallgemeinerung von Beispielproblemen macht EBL die Wissensbasis effizienter für Probleme, die in der Zukunft berechtigt zu erwarten sind. Dies funktioniert, solange die Verteilung der Beispiele aus der Vergangenheit in etwa dieselbe ist wie für zukünftige Beispiele. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 127
18 3. Lernen mit Vorwissen Relevanzbasiertes Lernen Relevanzbasiertes Lernen Der Brasilienreisende nutzt folgendes aus: Nationalität(x, n) Nationalität(y, n) Sprache(x, l) Sprache(y, l) Dies ist eine strenge Form der Relevanz: Die Sprache ist eine Funktion der Nationalität. Es liegt eine sogenannte funktionale Abhängigkeit vor. Notation: Nationalität(x, n) Sprache(x, n) bzw. Nationalität Sprache Für das relevanzbasierte Lernen ist jetzt interessant, wie solche funktionalen Abhängigkeiten gelernt werden können. Besonders interessant sind volle funktionale Abhängigkeiten, d.h.: A b A b für alle A A Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 128
19 3. Lernen mit Vorwissen Relevanzbasiertes Lernen Das Problem, solche funktionale Abhängigkeiten zu lernen, ist N P- vollständig. Führe eine Suche im Suchraum der funktionalen Abhängigkeiten durch. Überprüfe zunächste alle funktionalen Abhängigkeiten mit einem Prädikat, dann mit zwei usw. bis eine konsistente funktionale Abhängigkeit gefunden wurde. Aufwand: O(n p ) falls die funktionale Abhängigkeit aus p Attributen besteht bei n Attributen insgesamt. Anwendung: Verknüpfung von relevanzbasiertem Lernen mit Entscheidungsbäumen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 129
Moderne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
Deduktion in der Aussagenlogik. Semantische Folgerungsbeziehung. Zusammenhang zwischen semantischer und syntaktischer Folgerung
Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches Was folgt logisch aus dieser Theorie? Deduktion: aus
Deduktion in der Aussagenlogik
Deduktion in der Aussagenlogik Menge von Ausdrücken der Aussagenlogik beschreibt einen bestimmten Sachverhalt, eine "Theorie" des Anwendungsbereiches. Was folgt logisch aus dieser Theorie? Deduktion: aus
Künstliche Intelligenz Logische Agenten & Resolution
Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein
Künstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
Konzepte der AI: Maschinelles Lernen
Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende
Deduktives Lernen Explanation-Based Learning
Deduktives Lernen Explanation-Based Learning Algorithmus grundlegende Idee anhand eines Beispiels Eigenschaften von EBL Utility Problem Implementierung als PROLOG Meta-Interpreter Operationalisierung 1
[A] = c(a) in den Einheiten mol/l (1) Eine tiefgestellte Null wie bei [A] 0 zeigt an, dass es sich um eine Anfangskonzentration
1 Ableitung des Massenwirkungsgesetzes Mit dem Umfüllexperiment haben wir herausgefunden, dass die Stoffmengen oder die Stoffmengenkonzentrationen im Gleichgewicht auf einen Grenzwert zulaufen. Außerdem
Maschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
Künstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
Minimalpolynome und Implikanten
Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,
8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
Allgemeingültige Aussagen
Allgemeingültige Aussagen Definition 19 Eine (aussagenlogische) Formel p heißt allgemeingültig (oder auch eine Tautologie), falls p unter jeder Belegung wahr ist. Eine (aussagenlogische) Formel p heißt
Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus
Problemreduktion durch Transformation am Beispiel des Erweiterten Euklidschen Algorithmus Wolfgang Windsteiger JKU Linz, A 4040 Linz, Austria Kurzfassung Transformation beschreibt im Wesentlichen die algorithmische
Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene
5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
Grundlagen der Theoretischen Informatik
FH Wedel Prof. Dr. Sebastian Iwanowski GTI22 Folie 1 Grundlagen der Theoretischen Informatik Sebastian Iwanowski FH Wedel Kap. 2: Logik, Teil 2.2: Prädikatenlogik FH Wedel Prof. Dr. Sebastian Iwanowski
Musterloesung: Uebung 3
Musterloesung: Uebung 3 Sebastian Scherer December 10, 2012 Aufgabe 1 Die gegebene Funktion ist durch f((b 1, b 2, b 3 )) = 1 b 1 b 2 b 3 (1) definiert. Um die DNF anzugeben muessen wir einfach die Formel
Inhalt. Wissensbasierte Diagnose Entscheidungsbäume Bayes-Netze Fallbasiertes Schließen Funktionsorientierte Diagnose Modellbasierte Systeme
Inhalt 2 Wissensbasierte Diagnose 3 Diagnose bezeichnet hier das Rückschließen auf mögliche Ursachen, welche zu beobachtbaren Wirkungen führen. Heutige Diagnosesysteme haben gute Diagnosebasisfunktionen,
Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden
Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen
Analytische Lösung algebraischer Gleichungen dritten und vierten Grades
Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Inhaltsverzeichnis 1 Einführung 1 2 Gleichungen dritten Grades 3 3 Gleichungen vierten Grades 7 1 Einführung In diesem Skript werden
Maschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
Übersicht. 7. Prädikatenlogik 1. Stufe
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik
Induktive Logikprogrammierung
3. Lernen mit Vorwissen Induktive Logikprogrammierung Induktive Logikprogrammierung Induktive Logikprogrammierung (ILP) kombiniert induktives Lernen mit Repräsentationen in Prädikatenlogik erster Stufe,
Maschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
Resolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren:
Resolutionskalkül Ein Kalkül ist eine Kollektion von syntaktischen Umformungsregeln, die unter gegebenen Voraussetzungen aus bereits vorhandenen Formeln neue Formeln erzeugen. Der Resolutionskalkül besteht
Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Hornformeln
Formale Grundlagen der Informatik 1 Kapitel 16 Normalformen und Frank Heitmann [email protected] 9. Juni 2015 Frank Heitmann [email protected] 1/36 Ersetzbarkeitstheorem
Moderne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
Maschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein
Case-Based Reasoning und anderen Inferenzmechanismen
Case-Based Reasoning und anderen Inferenzmechanismen Daniel Müller 21 April 2006 DM () CBR und Inferenz 21 April 2006 1 / 31 Contents 1 Einleitung 2 Inferenzmechanismen Statistische Verfahren Data Mining
Logisches und funktionales Programmieren
Prof. Dr. Christoph Beierle, Dr. Harald Ganzinger, Prof. Dr. Michael Hanus Kurs 01816 Logisches und funktionales Programmieren LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten
Logik Vorlesung 5: Grundlagen Resolution
Logik Vorlesung 5: Grundlagen Resolution Andreas Maletti 21. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen Weitere
Sätze über ganzrationale Funktionen
Sätze über ganzrationale Funktionen 1. Sind alle Koeffizienten a i ganzzahlig und ist x 0 eine ganzzahlige Nullstelle, so ist x 0 ein Teiler von a 0. 2. Haben alle Koeffizienten dasselbe Vorzeichen, so
Klausur zu Mathematische Grundlagen BachelorStudiengänge der Informatik
Klausur zu Mathematische Grundlagen BachelorStudiengänge der Informatik SS 2016, 16.07.2016 Prof. Dr. Hans-Jürgen Steens Name: Vorname: Matrikelnummer: Die Klausur besteht aus 23 Aufgaben. Es sind maximal
Die Unentscheidbarkeit extensionaler Eigenschaften von Turingmaschinen: der Satz von Rice
Die Unentscheidbarkeit extensionaler Eigenschaften von Turingmaschinen: der Satz von Rice Holger Arnold Dieser Text befasst sich mit der Frage, unter welchen Bedingungen das Problem, zu bestimmen, ob die
Expertensysteme / XPS
Expertensysteme / XPS Alexander Pentzlin und Thiemo Bannasch KI II Claes Neuefeind 27.06.2012 1 Inhalt Was ist ein Expertensystem Geschichtlicher Hintergrund Prinzip eines XPS Komponenten Realisierungsprinzipien
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
Logik Vorlesung 4: Horn-Logik und Kompaktheit
Logik Vorlesung 4: Horn-Logik und Kompaktheit Andreas Maletti 14. November 2014 Überblick Inhalt 1 Motivation und mathematische Grundlagen 2 Aussagenlogik Syntax und Semantik Äquivalenz und Normalformen
Rechnerstrukturen WS 2012/13
Rechnerstrukturen WS 2012/13 Boolesche Funktionen und Schaltnetze Schaltnetze Rechner-Arithmetik Addition Bessere Schaltnetze zur Addition Carry-Look-Ahead-Addierer Multiplikation Wallace-Tree Hinweis:
Vorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
Grammatiken. Einführung
Einführung Beispiel: Die arithmetischen Ausdrücke über der Variablen a und den Operationen + und können wie folgt definiert werden: a, a + a und a a sind arithmetische Ausdrücke Wenn A und B arithmetische
Vorlesung. Logik und Beweise
Vorlesung Logik und Beweise Der folgende Abschnitt dient nur zur Wiederholung des Stoffes der ersten Vorlesung und sollte nur genannt bzw. teilweise schon vor der Vorlesung angeschrieben werden. Wiederholung
Alphabet, formale Sprache
n Alphabet Alphabet, formale Sprache l nichtleere endliche Menge von Zeichen ( Buchstaben, Symbole) n Wort über einem Alphabet l endliche Folge von Buchstaben, die auch leer sein kann ( ε leere Wort) l
Grundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 28. Aussagenlogik: DPLL-Algorithmus Malte Helmert Universität Basel 2. Mai 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26. Grundlagen 27. Logisches
Wissensbasierte Systeme
FH Wedel Prof. Dr. Sebastian Iwanowski WBS6 Folie 1 Wissensbasierte Systeme Sebastian Iwanowski FH Wedel Kap. 6: Wissensbasierte Diagnosemethoden im Vergleich FH Wedel Prof. Dr. Sebastian Iwanowski WBS6
Die Anfänge der Logik
Die Anfänge der Logik Die Entwicklung des logischen Denkens vor Aristoteles Holger Arnold Universität Potsdam, Institut für Informatik [email protected] Grundfragen Was ist Logik? Logik untersucht
Beispiel Gröbnerbasen-Berechnung
Beispiel Gröbnerbasen-Berechnung Bsp: Seien f 1 = x 2 y + xy, f 2 = xy 2 + 1 R[x, y] in grlex-ordnung. S(f 1, f 2 ) = yf 1 xf 2 = xy 2 x. Division liefert S(f 1, f 2 ) = 1 f 2 x 1. Wir fügen f 3 = x 1
Vorlesung. Beweise und Logisches Schließen
Vorlesung Beweise und Logisches Schließen Der folgende Abschnitt dient nur zur Wiederholung des Stoffes der ersten Vorlesung und sollten nur genannt bzw. Teilweise schon vor der Vorlesung angeschrieben
Bisher. Programme. Ausdrücke und ihre Auswertung (Substitutionsmodell)
Bisher Programme Ausdrücke und ihre Auswertung (Substitutionsmodell) Konstruktionsanleitung für Prozeduren Kurzbeschreibung Sorten und Verträge Gerüst Testfälle Rumpf ausfüllen Testen 2.21 Erinnerung:
Oft gebraucht man einfach nur das Wort Mannigfaltigkeit, und meint eine topologische Banachmannigfaltigkeit. Das kommt auf den Kontext an.
Mannigfaltigkeiten (Version 19.11. 14:30) Eine n-dimensionale topologische Mannigfaltigkeit ist ein topologischer Raum, der lokal homöomorph zum R n ist. Entsprechend könnten wir natürlich auch eine topologische
Wir halten in einem s t Diagramm das Anfahren eines Autos fest. Wir nehmen an, dass zwischen Weg und Zeit der einfache Zusammenhang
. Die Momentangeschwindigkeit eines Autos Wir halten in einem s t Diagramm das Anfahren eines Autos fest. Wir nehmen an, dass zwischen Weg und Zeit der einfache Zusammenhang s(t) = t gilt. Im s t Diagramm
2. Symmetrische Gruppen
14 Andreas Gathmann 2 Symmetrische Gruppen Im letzten Kapitel haben wir Gruppen eingeführt und ihre elementaren Eigenschaften untersucht Wir wollen nun eine neue wichtige Klasse von Beispielen von Gruppen
Logische und funktionale Programmierung
Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca [email protected] 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN
e x e x x e x + e x (falls die Grenzwerte existieren), e x e x 1 e 2x = lim x 1
Aufgabe a Hier kann man die Regel von de l Hospital zweimal anwenden (jeweils und die Ableitung des Nenners ist für hinreichend große x ungleich. Dies führt auf e x e x e x + e x e x + e x e x e x e x
Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I
Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I 1. Mengen und Abbildungen In der Mathematik beschäftigt man sich immer -direkt oder indirekt- mit Mengen. Wir benötigen den Mengenbegriff
Elementare Beweistechniken
Elementare Beweistechniken Beispiel: Satzform (Pythagoras) Voraussetzung: Gegeben sei ein beliebiges rechtwinkeliges Dreieck, die Länge der Hypothenuse sei c und die Längen der anderen Seiten seien a und
Wissensbasierte Systeme
WBS7 Slide 1 Wissensbasierte Systeme Vorlesung 7 vom 01.12.2004 Sebastian Iwanowski FH Wedel WBS7 Slide 2 Wissensbasierte Systeme 1. Motivation 2. Prinzipien und Anwendungen 3. Logische Grundlagen 4. Suchstrategien
Lineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich [email protected] 1 Einleitung In der linearen
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Einführung in die mathematische Logik
Prof. Dr. H. Brenner Osnabrück SS 2014 Einführung in die mathematische Logik Vorlesung 3 Tautologien In der letzten Vorlesung haben wir erklärt, wie man ausgehend von einer Wahrheitsbelegung λ der Aussagevariablen
Wahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Ab 5.11.: Vorlesung im HSG H.001
Rechnerstrukturen WS 202/3 Ab 5..: Vorlesung im HSG H.00 Boolesche Funktionen und Schaltnetze KV-Diagramme Beschreibung und Beispiel Minimalpolynome Algorithmus von Quine und McCluskey Einleitung, Berechnung
2 Funktionen in mehreren Variablen: Differentiation
Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v
Logik I. Symbole, Terme, Formeln
Logik I Symbole, Terme, Formeln Wie jede geschriebene Sprache basiert die Prädikatenlogik erster Stufe auf einem Alphabet, welches aus den folgenden Symbolen besteht: (a) Variabeln wie zum Beispiel v 0,v
Vollständige Induktion
Angenommen, wir wollen zeigen, dass eine Aussage P(n) für alle n N wahr ist. Anders ausgedrückt: Es gilt n N : P(n) Hierzu können wir die Technik der vollständigen Induktion verwenden. Wir zeigen, dass
B*-BÄUME. Ein Index ist seinerseits wieder nichts anderes als eine Datei mit unpinned Records.
B*-Bäume 1 B*-BÄUME Beobachtung: Ein Index ist seinerseits wieder nichts anderes als eine Datei mit unpinned Records. Es gibt keinen Grund, warum man nicht einen Index über einem Index haben sollte, und
NP-Vollständigkeit des Erfüllbarkeitsproblems
NP-Vollständigkeit des Erfüllbarkeitsproblems Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 25 Def: NP-Härte Definition (NP-Härte) Ein Problem L heißt NP-hart,
Logikprogrammierung. Berechnung durch Resolution Die Programmiersprache Prolog
Logikprogrammierung Berechnung durch Resolution Die Programmiersprache Prolog Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 6.1 Logikprogrammierung Berechnung durch Resolution 213 Resolution
Die Regeln von de l Hospital
Die Regeln von de l Hospital Von Florian Modler Guillaume Francois Antoine de l Hospital war ein französischer Mathematiker und Aristokrat. Er wurde 66 geboren und verstarb 704 im Alter von 43 Jahren.
12 Wahrheitsbäume zur Beurteilung der logischen Wahrheit von Sätzen der Sprache AL
12 Wahrheitsbäume zur Beurteilung der logischen Wahrheit von Sätzen der Sprache L Eine zweite Methode Das Wahrheitsbaumverfahren Dieses Verfahren beruht auf der Methode des indirekten Beweises. Wahrheitsbäume
AutoSPARQL. Let Users Query Your Knowledge Base
AutoSPARQL Let Users Query Your Knowledge Base Christian Olczak Seminar aus maschinellem Lernen WS 11/12 Fachgebiet Knowledge Engineering Dr. Heiko Paulheim / Frederik Janssen 07.02.2012 Fachbereich Informatik
