Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Ähnliche Dokumente
Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

1. Lernen von Konzepten

Machine Learning. 1. Grundlagen des Machine Learning

Maschinelles Lernen SS 2005

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1.

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Moderne Methoden der KI: Maschinelles Lernen

Reinforcement learning

Reinforcement Learning

Vorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II

Jens Schmidt Senior Member Technical Staff

Konzepte der AI: Maschinelles Lernen

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Konzepte der AI Neuronale Netze

Bring your own Schufa!

Mustererkennung und Klassifikation

Maschinelles Lernen Entwicklung und aktuelle Anwendungen

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Learning regular sets from queries and counterexamples

Maschinelles Lernen II

Neuronale Netze. Christian Böhm.

Maschinelles Lernen und Data Mining

Reinforcement Learning

Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes

INTELLIGENTE DATENANALYSE IN MATLAB

Clustering. Clustering:

Theoretische Informatik 1

Kapitel ML: III. III. Entscheidungsbäume. Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning

Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner

Intelligente Algorithmen Einführung in die Technologie

4. Lernen von Entscheidungsbäumen

Künstliche Intelligenz Maschinelles Lernen

Data Mining - Wiederholung

Einführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele

Data Mining und maschinelles Lernen

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Methoden, Chancen und Risiken beim Auswerten großer Datenmengen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

SKOPOS Webinar 22. Mai 2018

8. Reinforcement Learning

TD-Gammon. Michael Zilske

INTELLIGENTE DATENANALYSE IN MATLAB. Einführungsveranstaltung

Business Intelligence & Machine Learning

Vorlesung: Künstliche Intelligenz

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume

Einführung in NLP mit Deep Learning

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Der Alpha-Beta-Algorithmus

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Moderne Methoden der KI: Maschinelles Lernen

Machine Learning & Künstliche Intelligenz

Mathematische Grundlagen III

Industrial Data Intelligence Datenbasierte Produktionsoptimierung. Hannover, HMI Peter Seeberg

Decision Tree Learning

Data Mining auf Datenströmen Andreas M. Weiner

Kapitel ML: X (Fortsetzung)

Teil 5. Maschinelles Lernen

Pareto optimale lineare Klassifikation

1 Einleitung. 2 Clustering

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

6.2 Feed-Forward Netze

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1

Einführung i.d. Wissensverarbeitung

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Projekt-INF Folie 1

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING

Temporal Difference Learning

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen

Learning Human Body Movement

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Projekt Maschinelles Lernen WS 06/07

Einführung i.d. Wissensverarbeitung

Behavioral Targeting und selbstlernende Kampagnen. Aktuelle Herausforderungen für Data Mining. Dr. Alexander K. Seewald

Teil 5. Maschinelles Lernen

Splitting. Impurity. c 1. c 2. c 3. c 4

Künstliche Intelligenz im Maschinen- und Anlagenbau Heilsbringer oder Hypebringer?

Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen

Schachaufgabe 05: Ma-Übung Chess Problem 05: Mate training

Implementation und Evaluation eines Regressionsregellerners

Data-Mining: Ausgewählte Verfahren und Werkzeuge

Supervised & Unsupervised Machine Learning

Maschinelles Lernen: Symbolische Ansätze

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Maschinelles Lernen. mit und. Effizienz steigern in Massenprozessen. Jan Schinnerling. eworld 2019 Maschinelles Lernen

Darstellung, Verarbeitung und Erwerb von Wissen

Klassifikation im Bereich Musik

Künstliche Intelligenz Maschinelles Lernen

Einführung in das Maschinelle Lernen I

Assoziationsregeln & Sequenzielle Muster. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

Modell Komplexität und Generalisierung

Transkript:

Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater? Welche Kriterien liegen einer Entscheidung zugrunde? 2 Risikoanalyse bei Kreditvergabe Kunde 1 Hausbesitzer ja Einkommen (p.a.) 51.000 EUR Tilgung (p.m.) 1.000 EUR Kreditlaufzeit 7 Jahre Alter 37 verheiratet ja Kunde n Hausbesitzer nein Einkommen (p.a.) 55.000 EUR Tilgung (p.m.) 1.200 EUR Kreditlaufzeit 8 Jahre Alter? verheiratet nein 3

Risikoanalyse bei Kreditvergabe Kunde 1 Hausbesitzer ja Einkommen (p.a.) 51.000 EUR Tilgung (p.m.) 1.000 EUR Kreditlaufzeit 7 Jahre Alter 37 verheiratet ja Kunde n Hausbesitzer nein Einkommen (p.a.) 55.000 EUR Tilgung (p.m.) 1.200 EUR Kreditlaufzeit 8 Jahre Alter? verheiratet nein Gelernte Regeln: IF (Einkommen>40.000 AND Kreditlaufzeit<3) OR Hausbesitzer=ja THEN Kreditvergabe=ja IF THEN SCHUFA-Eintrag=ja OR (Einkommen<20.000) AND Tilgung>800) Kreditvergabe=nein 3 Bildanalyse 4 Bildanalyse Sharp Left Straight Ahead Sharp Right 30 Output Units 4 Hidden Units 30x32 Sensor Input Retina 4

Definition 1 (Maschinelles Lernen, Machine Learning) A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T,as measured by P, improves with experience E. [Mitchell 1997] 5 Definition 1 (Maschinelles Lernen, Machine Learning) A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T,as measured by P, improves with experience E. [Mitchell 1997] Am Beispiel Schach: T = Schachspielen P = Anteil gewonnener Spiele bei einer Weltmeisterschaft E = Möglichkeit, gegen sich selbst zu spielen 5 Definition 1 (Maschinelles Lernen, Machine Learning) A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T,as measured by P, improves with experience E. [Mitchell 1997] Am Beispiel Schach: T = Schachspielen P = Anteil gewonnener Spiele bei einer Weltmeisterschaft E = Möglichkeit, gegen sich selbst zu spielen Am Beispiel Schrifterkennung: T = Isolation und Klassifikation handgeschriebener Worte in Bitmaps P = Anteil korrekt klassifizierter Worte E = Kollektion mit korrekt klassifizierten, handgeschriebenen Worten 5

Art des Trainingserfahrung E (Beispiel Schach) 1. Feedback Direktes Feedback: Zu einer Brettkonfiguration ist der beste Zug gegeben. Indirektes Feedback: Es gibt nur das Resultat eine ganzen Serie von Zügen, am Ende eines Spiels. 6 Art des Trainingserfahrung E (Beispiel Schach) 1. Feedback Direktes Feedback: Zu einer Brettkonfiguration ist der beste Zug gegeben. Indirektes Feedback: Es gibt nur das Resultat eine ganzen Serie von Zügen, am Ende eines Spiels. 2. Reihenfolge der Beispiele Ein Lehrer präsentiert dem Lernenden wichtige Beispiele einschließlich deren Lösung. Der Lernende wählt die Beispiele selbst aus; z. B. Brettkonfiguration, für die er keinen passenden Zug kennt. 6 Art des Trainingserfahrung E (Beispiel Schach) 1. Feedback Direktes Feedback: Zu einer Brettkonfiguration ist der beste Zug gegeben. Indirektes Feedback: Es gibt nur das Resultat eine ganzen Serie von Zügen, am Ende eines Spiels. 2. Reihenfolge der Beispiele Ein Lehrer präsentiert dem Lernenden wichtige Beispiele einschließlich deren Lösung. Der Lernende wählt die Beispiele selbst aus; z. B. Brettkonfiguration, für die er keinen passenden Zug kennt. 3. Relevanz hinsichtlich P Wieviel läßt sich auf Basis von E lernen, um in der realen Situation zu bestehen? (Allein durch Spielen gegen sich selbst kann man bei Schach nicht auf Weltmeisterniveau kommen.) 6

Definition einer Zielfunktion (Beispiel Schach) choosemove : Boards Moves γ : Boards R Rekursive Definition im Stil einer Means-End-Analyse: Sei b Boards. 1. γ(b) = 100, falls b einen gewonnenen Endzustand repräsentiert. 2. γ(b) = 100, falls b einen verlorenen Endzustand repräsentiert. 3. γ(b) =0, falls b einen unentschiedenen Endzustand repräsentiert. 4. γ(b) =γ(b ) sonst. Dabei bezeichne b den besten Endzustand, der erreicht werden kann, wenn beide Seiten optimal spielen. Stichworte: Suchhorizont, MiniMax-Strategie, α-β-pruning 7 Repräsentation einer Zielfunktion (Beispiel Schach) Bemerkungen: Die ideale Zielfunktion ist meist unbekannt bzw. kann nicht gelernt werden. Die Funktion y sollte deshalb als eine Annäherung der idealen Zielfunktion verstanden werden. Beispiele: Regelmenge neuronales Netz Polynom über Merkmale einer Brettkonfiguration y = w 0+w 1 x 1(b)+w 2 x 2(b)+w 3 x 3(b)+w 4 x 4(b)+w 5 x 5(b)+w 6 x 6(b) mit x 1 (b) = x 2 (b) = x 3 (b) = x 4 (b) = x 5 (b) = x 6 (b) = Anzahl schwarzer Figuren in Konfiguration b Anzahl weißer Figuren in Konfiguration b Anzahl schwarzer Könige in Konfiguration b Anzahl weißer Könige in Konfiguration b Anzahl bedrohter weißer Figuren in Konfiguration b Anzahl bedrohter schwarzer Figuren in Konfiguration b 8 Algorithmus zur Gewichtsanpassung Sei D eine Menge von Trainingsbeispielen der Form x, c(x) und η eine positive kleine Konstante, die Lernrate. 1. REPEAT 2. x, c(x) = random_select(d); 3. error = c(x) y 4. FOR i =1 TO 6 DO w i = w i + η error x i 5. UNTIL(convergence(D, Y )) 9

Design-Entscheidungen bei der Entwicklung von lernenden Systemen 1. Trainingserfahrung 2. Zielfunktion (Lernfunktion) 3. Repräsentation der Zielfunktion 4. Lernalgorithmus Aufbau eines Lernprogramms: new problem Experiment generator hypothesis γ^ Performance system Generalizer solution trace Critic training examples [vgl. Mitchell 1997] 10 Maschinelles Lernen: Paradigmen 1. Überwachtes Lernen (supervised learning) Gelernt werden soll eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Wichtiges Teilgebiet des überwachten Lernens ist die automatische Klassifikation. Beispiel: Handschrifterkennung. 2. Unüberwachtes Lernen (unsupervised learning) Ziel ist das Erkennen von Strukturen in Daten. Hierzu gehört die automatische Einteilung in Kategorien (Clustering), Optimierung von Modellparametern (Expectation Maximization), oder die Übersetzung der beobachteten Daten in eine einfachere Repräsentation (Faktoranalyse). Bemerkungen: Eine klare Abgrenzung von Machine Learning und Data Mining ist nicht immer möglich. Ein wichtiger Unterschied resultiert aber aus der Größe der behandelten Datenmengen: Anwendungen des Machine Learning laufen typischerweise im Hauptspeicher ab; die Disziplin des Data Mining entstand aus der Notwendigkeit, maschinelle Analyseverfahren auf riesige Datenbanken anzuwenden. Ein Schwerpunkt des Machine Learning ist der eigentliche Lern- bzw. Deduktionsprozeß wie die Theorie des analogen Schließens, das Lernen aus Beispielen, oder der Einfluß der Umwelt auf das Lernen. Hingegen ist die treibende Kraft hinter Data Mining die Industrieund Geschäftswelt mit ihren großen Datenbanken. Zu den bekannten Aufgabenstellung des Data Mining gehören: ungerichtete Abhängigkeitsanalyse zur Identifikation signifikanter Dependenzen zwischen den Attributen eines Informationsobjektes (Beispiel: Warenkorbanalyse), Gruppenbildung und Klassifikationsprobleme, Filtern von Prozeßdaten, Prognoseaufgaben. 3. Bekräftigungslernen (reinforcement learning) Ziel ist das Erlernen bzw. Anpassen oder Optimieren einer (Verhaltensstraegie) durch Feedback aus der Umwelt unter dem Prinzip der Nutzenmaximierung. Beispiel: Agenten in einer virtuellen Welt 11 Fragestellungen Welche Algorithmen sind zur Funktionsapproximation geeignet? Wie beinflußt die Anzahl der Trainingsbeispiele die Genauigkeit? Wie beinflussen verrauschte Daten die Genauigkeit? Wo sind die theoretischen Grenzen der Lernbarkeit? Wie läßt sich Vorwissen in Lernverfahren integrieren? Was kann man bei biologischen Systemen abschauen? 12

Maschinelles Lernen propositionale (oder relative) Regellernverfahren assoziative Regellernverfahren Cluster-Analyse Hauptkomponenten- und Faktoranalyse Klassifikation (Diskriminanzanalyse, Entscheidungsbäume, Attributauswahl, hierarchische Textklassifizierer) Regressionsanalyse neuronale Netze Support Vector Machines Lernen aus Informationen, die sich mit der Zeit verändern 13