Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)

Größe: px
Ab Seite anzeigen:

Download "Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)"

Transkript

1 Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische Lernmethoden 21. Verstärkungslernen VII Kommunizieren, Wahrnehmen und Handeln Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 2 Lernende Agenten (1) Lernende Agenten können ihr zukünftiges Verhalten verbessern. Komponenten eines lernenden Agenten: Verhaltenskomponente (bisheriger Problemlöser) Lernkomponente (Verbesserung der Verhaltenskomponente) - Wissenserwerb - Beschleunigung des Verhaltens Kritikkomponente (Bewertung des Verhaltens) Problemgenerator (Exploration) Die Lernkomponente hängt von folgenden Aspekte ab: Art der zu verbessernden Verhaltenskomponente Wissensrepräsentation der Komponenten (erfordern jeweils angepasste Lernverfahren) Verfügbares Feedback Hintergrundwissen (notwendig für fast alles Lernen) Alles Lernen kann als das Lernen der Repräsentation einer Funktion betrachtet werden. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 3 Lernende Agenten (2) Arten der zu verbessernden Verhaltenskomponente: Direkte Abbildung von Zustandsbedingungen auf Aktionen Herleitung von Eigenschaften der Welt aus Sensorinformationen Informationen wie sich die Welt verändert Informationen über Auswirkungen möglicher Aktionen des Agenten Nützlichkeitsinformationen über die Attraktivität von Situationen Informationen über Nützlichkeit von Aktionen in bestimmten Situationen Ziele, die nützliche Situationsklassen beschreiben Verfügbares Feedback: Geführtes Lernen (Supervised learning) Verstärkungslernen (reinforcement learning) Ungeführtes Lernen (unsupervised learning) Wissensrepräsentation: Lineare gewichtete Polynome für Nützlichkeitsfunktionen Aussagen- oder prädikatenlogische Sätze Probabilistische Beschreibungen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 4

2 Induktives Lernen Gegeben: Ausgabewerte einer Funktion für bestimmte Eingaben, d.h. Beispiele der Art: (x, f(x)). Oft neben positiven auch negative Beispiele. Gesucht: Eine Funktion h (Hypothese), die die Funktion f approximiert. Hauptproblem: Generalisierung Wie aus verschiedenen Hypothesen auswählen (Beispiel a und b)? Ockham's razor: Bevorzuge einfache Hypothesen! Aber wie Einfachheit definieren? Wie für nicht-deterministische Funktionen den unvermeidlichen Kompromiss zwischen Komplexität der Hypothese Grad der Datenüberdeckung finden (Beispiel c)? Wie Apriori-Annahmen über Hypothesenraum formulieren (Beispiel d) Vorwissen erforderlich (Gefahr von Vorurteilen!) Wie stark den Hypothesenraum einschränken (meist sehr stark)? Vereinfachung des Lernen Vereinfachung der Nutzung des gelernten Wissens Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 5 Auswirkungen verschiedener Annahmen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 6 Konsequenzen Für Auswahl der besten Hypothese Präferenzannahmen (bias) nötig! Kompromiss zwischen Ausdrucksstärke der zugrundeliegenden Wissensrepräsentation und Effizienz des Lernverfahrens unvermeidbar! Inkrementelle Lernverfahren zur kontinuierlichen Integration neuer Beispiele in große Fallsammlung mit akzeptablem Aufwand vorteilhaft! Beliebtes Verfahren zum Lernen aus Beispielen: Lernen von Entscheidungsbäumen (eingeschränkte Repräsentation, effizientes Verfahren, aber nicht-inkrementell) diskrete Attribute (bei kontinuierlichen Attributen: Regression) Für Menschen einfach zu verstehen Lernen von Entscheidungsbäumen (1) Input: Objekt oder Situation mit einer Menge von Eigenschaften Output: Ja/Nein-Entscheidung Entscheidungsbäume repräsentieren daher Boolsche Funktionen. Satz: Die meisten Boolschen Funktionen wie z.b. Parity- oder Mehrheitsfunktionen lassen sich schlecht, d.h. mit großen Entscheidungsbäumen, und nur wenige gut, d.h. mit kleinen Entscheidungsbäumen, repräsentieren. Begründung: 1. Eine Funktion benötigt im allgemeinen 2 n bits zu ihrer Repräsentation. n 2. Da es insgesamt 2 2 verschiedene Funktionen gibt (d.h. bei n=6 ca. 2*10 19 verschiedene Funktionen), benötigt man geniale Lernalgorithmen, um eine konsistente Hypothese in einem solchen doppelt exponentiellen Suchraum zu finden. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 7 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 8

3 Lernen von Entscheidungsbäumen (2) Beispiel: Restaurant- Domäne: Variablen Wenn es mehrere konsistente Hypothesen zu einer Trainingsmenge von positiven und negativen Beispielen gibt, dann wird nach Ockham's razor die kompakteste Hypothese, d.h. der kleinste Entscheidungsbaum, bevorzugt Eine wenig kompakte Hypothese wäre es, alle Beispiele auswendig zu lernen. Während das Finden des kleinsten Entscheidungsbaumes exponentiellen Aufwand erfordert, gibt es einen guten "Greedy"- Algorithmus, der meist einen ziemlich kleinen Entscheidungsbaum liefert. Mögliche Hypothese: Unmöglicher Ausdruck: Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 9 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 10 Korrekte Hypothese 12 Trainingsbeispiele Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 11 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 12

4 Informeller Algorithmus für Entscheidungsbäume Die Grundidee besteht darin, immer das Attribut zu wählen, das den größten Informationsgewinn bringt, d.h. das die Fallmenge so in Untergruppen aufspaltet, dass in den Untergruppen möglichst nur positive oder nur negative Beispiele sind. Jede Untergruppe wird rekursiv durch Auswahl des für sie informativsten Attributes wieder in Untergruppen aufgespaltet, wobei 4 Fälle entstehen können: Mögliche Knoten im Entscheidungsbaum (a) Aufteilen nach Restaurant-Typ bringt keine Unterscheidung zwischen positiven und negativen Beispielen (b) Aufteilen nach Gästen (Patrons) ist wesentlich besser. Hunger ist ein guter zweiter Test 1. Wenn alle Beispiele in einer Gruppe positiv oder alle negativ sind, dann terminiere mit der Antwort positiv oder negativ. 2. Wenn in einer Gruppe keine Beispiele enthalten sind, dann terminiere mit einer Default-Antwort, die sich aus der Mehrheit der Obergruppe ergibt. 3. Wenn in einer Gruppe sowohl positive als auch negative Beispiele enthalten sind, und es gibt noch unverbrauchte Attribute, dann wähle das beste Attribut und fahre rekursiv fort. 4. Wenn in einer Gruppe sowohl positive als auch negative Beispiele enthalten sind, und es gibt keine unverbrauchten Attribute mehr, dann sind die Beispiele inkonsistent. Terminiere mit einer Mehrheitsentscheidung oder einer probabilistischen Regel. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 13 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 14 Entscheidungsbaum- Lernalgorithmus Gelernter Entscheidungsbaum zu den 12 Beispielen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 15 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 16

5 Informationstheorie Informationsgewinn Zur Auswahl des besten Attributes kann man informationstheoretisches Wissen benutzen. Entropie: Informationsmaß für die Anzahl der notwendigen bits (Ja/nein-Fragen) um Sicherheit zu bekommen: I = - Σ p i log 2 p i wobei p i die Häufigkeit der i-ten Klasse ist, entsprechend den i Werten des Attributes. Beispiel: Münze werfen: I(1/2, 1/2) = -1/2 log 2 1/2-1/2 log 2 1/2 = 1/2 + 1/2 = 1 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 17 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 18 Bewertung der Leistung von Lernalgorithmen Lernkurve für Entscheidungsbäume Zum Überprüfen müssen Testfälle gewählt werden, die bei der Entwicklung des Algorithmus (bzw. bei der Einstellung seiner Parameter) keine Rolle gespielt haben dürfen. Allerdings ist das in Praxis zu schwierig, sollte aber approximiert und vor allem dokumentiert werden. 1. Sammle Beispiele 2. Teile Beispiele in Trainings- und Testmenge 3. Wende Lernalgorithmus für Trainingsmenge an, generiere Hypothese h 4. Evaluiere h mit Testmenge: Prozentsatz korrekt gelöster Fälle 5. Wiederhole Schritte 1-4 mit unterschiedlichen großen und zufällig gewählten Trainingsmengen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 19 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 20

6 Rauschen und Überanpassung Rauschen (noise) bedeutet, dass Beispiele falsche Daten oder Bewertungen enthalten, z.b. 2 gleiche Fälle mit unter-schiedlichen Bewertungen. Wenn es irrelevante Attribute gibt (Farbe der Münze, Wochentag des Werfens, usw.), dann kann der Entscheidungsbaum-Algorithmus diese zur weiteren Differenzierung nutzen (Überanpassung; overfitting). Wie kann man das verhindern? Pruning: Man berechnet, wie wahrscheinlich die Aufteilung eines Attributes durch Zufall zustande gekommen sein kann: nur wenn dies sehr unwahrscheinlich ist, dann ist das Attribut ein sinnvoller Entscheidungsknoten, ansonsten wird es eliminiert - Chi-Quadrat-Test (bei 2 x 2 Werten) oder verallgemeinerte Kontingenztests. Cross-Validation: Wie gut kann Hypothese neue Daten bewerten? - Reservierung eines Teils (1 / k) der Trainingsdaten für Validierung Chi- Quadrat- Test Nullhypothese: das Attribut ist irrelevant, d.h. es teilt die Fallmenge zufällig in positive und negative Beispiele auf Die Stärke der Abweichung von zufälliger Verteilung dient als Bewertungsgrundlage. Ihre statistische Auswertung hängt auch von der Fallzahl ab. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 21 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 22 Cross Validation Der Lernalgorithmus verwendet nicht alle Trainingsdaten, sondern nutzt einen Teil zur Validierung Dieser Teil sollte sehr klein sein, weil sonst das Lernen beeinträchtigt wird K-fold Cross Validation es werden k Experimente gemacht, bei denen jeweils 1 / k der Trainingsdaten zur Validierung dienen. Typische Werte für k sind 5 oder 10, aber auch n, d.h. es wird pro Experiment nur mit einem Fall validiert (leave-oneout-cross-validation) Anschließend muss mit anderen Fällen (echten Testdaten) getestet werden Weitere Probleme Unvollständige Daten: Was tun, wenn in einem Fall manche Attribute unbekannt sind? Problem entsteht sowohl beim Lernen als auch beim späteren Klassifizieren. Schätzen der unbekannten Attribute Attribute mit sehr vielen Werten: Diese werden von dem Entropiemaß zur Auswahl des informativsten Attributes ungerechtfertigter Weise bevorzugt (im Extrem z.b. Restaurantname). Wie kann man das vermeiden? Ähnliche Techniken wie beim Pruning Kontinuierliche Attribute: Wie wertet man sie aus? Algorithmen zur Intervallbildung Kontinuierliches Ergebnis: Regressions-Baum Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 23 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 24

7 Ensemble Lernen Idee: Statt einer Hypothese eine Menge (Ensemble) von Hypothesen generieren und diese per Mehrheit abstimmen lassen. funktioniert um so besser, je unabhängiger die Fehler bei der Generierung der Hypothesen sind. erhöht auch die Ausdrucksstärke des Hypothesenraums Verbreiteste Technik: Boosting Boosting Jedes Beispiel hat ein Gewicht > 0 (z.b. entspricht ein Gewicht von 2 der Dublizierung des Beispiels) Vorgehen: Erste Hypothese wird mit normalen Gewichten gelernt. Ab der zweiten Hypothese werden iterativ jeweils die Gewichte der falsch klassifizierten Beispiele erhöht, der richtig klassifizierten entsprechend verringert h Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 25 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 26 Beispiel für Boosting mit Restaurant- Daten Grundsätzliche Überlegungen zum Lernen Ursprünglicher Hypothesenraum: statt Entscheidungsbäume "Entscheidungsstümpfe", d.h. Bäume mit nur einem Attribut Boosting mit 5 Hypothesen und 100 Trainingsfällen (a) Boosting mit steigender Anzahl von Hypothesen (b) Warum funktioniert Lernen aus Beispielen? Die Test- und die Trainingsmenge müssen aus derselben Grundgesamtheit mit gleicher Wahrscheinlichkeitsverteilung stammen. Wie verhindert man, daß der Lernalgorithmus nur die Beispiele auswendig lernt? Durch Beschränkung der Ausdrucksstärke der dem Lernverfahren zugrundeliegenden Wissensrepräsentation. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 27 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 28

8 Wieviele Trainingsbeispiele braucht man? Sei X die Menge aller möglichen Beispiele. Sei D die Verteilung aus der die Trainingsbeispiele stammen. Sei m die Zahl der Trainingsbeispiele. n Sei H die Menge der möglichen Hypothesen (2 2, bei n Attributen) Sei f die wahre Funktion (in H enthalten) und h eine beliebige Hypothese error (h) = P (h(x) f(x) / x aus D) h ist annährend korrekt, falls error (h) ε(kleine Konstante) Aufteilung des Hypothesenraums in gute (im ε-ball um f) und schlechte Hypothesen (H bad ) Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 29 PAC- Lernen (Probably Approximately Correct) Eine schlechte Hypothese h b aus H bad kann trotzdem mit den ersten m Beispielen konsistent sein: P(h b ist m-konsistent) (1- ε) m P(H bad enthält konsistente Hypothese) H bad (1- ε) m H (1- ε) m Das soll kleiner sein als ein kleine Wahrscheinlichkeit δ: H (1- ε) m δ m 1/ε (ln 1/δ + ln H ), d.h. wenn ein Lernverfahren eine Hypothese liefert, die mit so vielen Beispielen konsistent ist, dann ist es annährend korrekt (probably approximately correct). Da der Hypothesenraum doppelt exponentiell ist, braucht man 2 n Beispiele. Jedoch gibt es nicht mehr als 2 n Beispiele. Annährende Korrektheit ist nicht zu erreichen. Dilemma: Falls lernbare Funktionen nicht beschränkt sind, kann nichts gelernt werden, falls doch, kann wahre Hypothese ausgeschlossen sein. Lösungen: 1. Einfachste konsistente Hypothese finden (zu schwierig). 2. Sich auf lernbare Teilmengen der Boolschen Funktionen beschränken! Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 30 Lernen von Entscheidungslisten (Regeln) Suche eine Regel, die aus einer Konjunktion von max. k Attributen besteht und die möglichst viele positive und keine negativen Beispiele (oder umgekehrt) abdeckt und wiederhole die Prozedur mit den nicht-klassifizierten Beispielen, bis alle positiven Beispiele überdeckt sind. Das Ergebnis ist eine Menge von Regeln in disjunktiver Normalform. Die Beschränkung auf k Literale zwingt den Algorithmus zu Generalisierungen (je stärker, je kleiner k ist), beschränkt aber auch seine Lernfähigkeit. Vergleich Entscheidungslisten vs. Entscheidungsbäume Anzahl der Beispiele N, die nach PAC-Lernen bei max k Attributen pro Regeln und n Attributen insgesamt erforderlich sind, um eine vorgegebene Fehlerwahrscheinlichkeit zu unterschreiten: N 1/ε (ln 1/δ + O(n k log 2 (n k ))) Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 31 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 32

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Hypothesenbewertungen: Übersicht

Hypothesenbewertungen: Übersicht Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Lernen kann von einem einfachen Erinnern der Erfahrungen, wie wir es beim Agenten der Wumpus-Welt gesehen haben (Kap. 10), bis hin zur Erstellung

Lernen kann von einem einfachen Erinnern der Erfahrungen, wie wir es beim Agenten der Wumpus-Welt gesehen haben (Kap. 10), bis hin zur Erstellung Lernen kann von einem einfachen Erinnern der Erfahrungen, wie wir es beim Agenten der Wumpus-Welt gesehen haben (Kap. 10), bis hin zur Erstellung ganzer wissenschaftlicher Theorien reichen (z.b. Albert

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007 Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning Definition

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Lernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier

Lernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier Lernalgorithmen SoSe 2008 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation

Mehr

Einführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele

Einführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele Einführung Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Direkte Programmierung eines intelligenten Agenten nicht möglich (bisher) Daher benötigt:

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Entscheidungsbäume. Minh-Khanh Do Erlangen, Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume

Mehr

Lernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier

Lernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier Lernalgorithmen SoSe 2008 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

Übersicht. Prädikatenlogik höherer Stufe. Syntax der Prädikatenlogik 1. Stufe (mit Gleichheit)

Übersicht. Prädikatenlogik höherer Stufe. Syntax der Prädikatenlogik 1. Stufe (mit Gleichheit) Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern 7. Logische Agenten 8. Prädikatenlogik 1. Stufe 9. Schließen in der Prädikatenlogik 1. Stufe 10. Wissensrepräsentation IV

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell

Mehr

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen

Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Stand der Folien: 14. Februar 2013 Einführung Direkte Programmierung eines intelligenten Agenten nicht

Mehr

Übersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Integration vor Vorwissen. Übersicht. Restaurantdomäne und Logik

Integration vor Vorwissen. Übersicht. Restaurantdomäne und Logik Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Von schwachen zu starken Lernern

Von schwachen zu starken Lernern Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von

Mehr

Übersicht. 16. Treffen einfacher Entscheidungen

Übersicht. 16. Treffen einfacher Entscheidungen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 14. Unsicherheiten 15. Probabilistische Inferenzsysteme 16. Treffen

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Grundlagen des Maschinellen Lernens Kapitel 4: PAC Lernen

Grundlagen des Maschinellen Lernens Kapitel 4: PAC Lernen Kapitel 4:. Motivation 2. Lernmodelle Teil I 2.. Lernen im Limes 2.2. Fallstudie: Lernen von Patternsprachen 3. Lernverfahren in anderen Domänen 3.. Automatensynthese 3.2. Entscheidungsbäume 3.3. Entscheidungsbäume

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany), Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,

Mehr

Projekt Maschinelles Lernen WS 06/07

Projekt Maschinelles Lernen WS 06/07 Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Tobias Scheffer Michael Brückner

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Tobias Scheffer Michael Brückner Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Tobias Scheffer Michael Brückner Hypothesenbewertung Ziel: gute Vorhersagen treffen. Bayesian model averaging,

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Intelligente Agenten Claes Neuefeind Sprachliche Informationsverarbeitung Universität zu Köln 26. Oktober 2011 Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Übersicht. 7. Prädikatenlogik 1. Stufe

Übersicht. 7. Prädikatenlogik 1. Stufe Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik

Mehr

Modell Komplexität und Generalisierung

Modell Komplexität und Generalisierung Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung

Mehr

Kryptographische Protokolle

Kryptographische Protokolle Kryptographische Protokolle Lerneinheit 2: Generierung von Primzahlen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Wintersemester 2018/2019 15.11.2018 Einleitung Einleitung Diese Lerneinheit

Mehr

Bildverarbeitung: RANSAC. D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11

Bildverarbeitung: RANSAC. D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11 Bildverarbeitung: RANSAC D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11 Beispielaufgaben Man suche eine Gerade ax + by = 1 d.h. die unbekannten Parameter a und b anhand einer Lernstichprobe der Punkte

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Übersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher

Mehr

Lernen von Klassifikationen

Lernen von Klassifikationen Lernen von Klassifikationen Gegeben: Trainingsbeispiele: Paare der Form (x i, f(x i )) Gesucht: Funktion f, die die Trainingsbeispiele klassifiziert. (a): Lernen mit Trainingsdaten (b): Genauigkeitsüberprüfung

Mehr

Eine Ausarbeitung von Marcel Ochel

Eine Ausarbeitung von Marcel Ochel Eine Ausarbeitung von Marcel Ochel 2 3 Vorwort Diese Ausarbeitung ist im Rahmen des Proseminars Künstliche Intelligenz der RWTH- Aachen in der vorlesungsfreien Zeit des Sommersemesters 2003 entstanden.

Mehr

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge

Mehr

Übersicht. Künstliche Intelligenz: 3. Problemlösen durch Suche Frank Puppe 1

Übersicht. Künstliche Intelligenz: 3. Problemlösen durch Suche Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden 5. Constraint-Probleme 6. Spiele III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres

Mehr

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen

Mehr

8.1 Einführung: Maschinelles Lernen

8.1 Einführung: Maschinelles Lernen Kapitel 8 Maschinelles Lernen 8.1 Einführung: Maschinelles Lernen Da die direkte Programmierung eines intelligenten Agenten sich als nicht möglich herausgestellt hat, ist es klar, dass man zum Erreichen

Mehr

, Data Mining, 2 VO Sommersemester 2008

, Data Mining, 2 VO Sommersemester 2008 Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/

Mehr

Minimalpolynome und Implikanten

Minimalpolynome und Implikanten Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,

Mehr

Classification and Regression Trees. Markus Müller

Classification and Regression Trees. Markus Müller Classification and Regression Trees Markus Müller Gliederung Lernen Entscheidungsbäume Induktives Lernen von Bäumen ID3 Algorithmus Einfluß der Beispielmenge auf den Baum Möglichkeiten zur Verbesserung

Mehr

1. Lernen von Konzepten

1. Lernen von Konzepten 1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven

Mehr

Online Lernen: Die Themen

Online Lernen: Die Themen Online Lernen: Die Themen (a) Das Online-Spiel: In jeder Runde präsentiert ein Lehrer ein Beispiel, das ein Schüler klassifiziert. Nach wie vielen Runden hat der Schüler das unbekannte Zielkonzept gelernt?

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25 Mathematische Grundlagen III Evaluation 16 Juli 2011 1/25 Training Set und Test Set Ein fairer Test gibt an, wie gut das Modell im Einsatz ist Resubstitution: Evaluation auf den Trainingsdaten Resubstitution

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

Künstliche Intelligenz Logische Agenten & Resolution

Künstliche Intelligenz Logische Agenten & Resolution Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein

Mehr

Aufgabe 1 (Allgemeines)

Aufgabe 1 (Allgemeines) Klausur... Einführung in die Künstliche Intelligenz 1SS08 Aufgabe 1 (Allgemeines) (4 Punkte) a) In der Künstlichen Intelligenz unterscheidet man symbolische und subsymbolische Verfahren. Beschreibe diese

Mehr

11. Übung Knowledge Discovery

11. Übung Knowledge Discovery Prof. Dr. Gerd Stumme, Robert Jäsche Fachgebiet Wissensverarbeitung. Übung Knowledge Discovery.7.7 Sommersemester 7 Informationsgewinn Im folgenden betrachten wir die Menge von n rainingsobjeten, mit den

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung

Mehr

4 Induktion von Regeln

4 Induktion von Regeln 4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung

Mehr

Maximierung der erwarteten Nützlichkeit. Übersicht. Bsp.: Maximierung der erwarteten Nützlichkeit. Grundlagen der Nützlichkeitstheorie

Maximierung der erwarteten Nützlichkeit. Übersicht. Bsp.: Maximierung der erwarteten Nützlichkeit. Grundlagen der Nützlichkeitstheorie Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Instanzenbasiertes Lernen: Übersicht

Instanzenbasiertes Lernen: Übersicht Instanzenbasiertes Lernen: Übersicht k-nearest Neighbor Lokal gewichtete Regression Fallbasiertes Schließen Lernen: Lazy oder Eager Teil 11: IBL (V. 1.0) 1 c G. Grieser Instanzenbasiertes Lernen Idee:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Gliederung. 1. KI im Allgemeinen und in dieser Vorlesung 2. Heuristische Suche 3. Logik und Inferenz 4. Wissensrepräsentation 5.

Gliederung. 1. KI im Allgemeinen und in dieser Vorlesung 2. Heuristische Suche 3. Logik und Inferenz 4. Wissensrepräsentation 5. Gliederung 1. KI im Allgemeinen und in dieser Vorlesung 2. Heuristische Suche 3. Logik und Inferenz 4. Wissensrepräsentation 5. Handlungsplanung 1. Überblick 6. Lernen 7. Sprachverarbeitung 8. Umgebungswahrnehmung

Mehr

Prädiktion und Klassifikation mit

Prädiktion und Klassifikation mit Prädiktion und Klassifikation mit Random Forest Prof. Dr. T. Nouri Nouri@acm.org Technical University NW-Switzerland /35 Übersicht a. Probleme mit Decision Tree b. Der Random Forests RF c. Implementation

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Was wissen Sie jetzt?

Was wissen Sie jetzt? Was wissen Sie jetzt?! Sie haben drei Prinzipien für die Regelbewertung kennen gelernt:! Unabhängige Mengen sollen mit bewertet werden.! Der Wert soll höher werden, wenn die Regel mehr Belege hat.! Der

Mehr

Teil III. Komplexitätstheorie

Teil III. Komplexitätstheorie Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

fuzzy-entscheidungsbäume

fuzzy-entscheidungsbäume fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Lineare Regression 2: Gute Vorhersagen

Lineare Regression 2: Gute Vorhersagen Lineare Regression 2: Gute Vorhersagen Markus Kalisch 23.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2,

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer

Mehr