Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen

Ähnliche Dokumente
Einführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele

Einführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele

Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen

8.1 Einführung: Maschinelles Lernen

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Maschinelles Lernen: Symbolische Ansätze

4. Lernen von Entscheidungsbäumen

Maschinelles Lernen. Kapitel Einführung: Maschinelles Lernen

Maschinelles Lernen. Kapitel Einführung: Maschinelles Lernen

Decision Tree Learning

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Vorlesung Wissensentdeckung

2. Lernen von Entscheidungsbäumen

Moderne Methoden der KI: Maschinelles Lernen

Entscheidungsbäume. Minh-Khanh Do Erlangen,

INTELLIGENTE DATENANALYSE IN MATLAB

Splitting. Impurity. c 1. c 2. c 3. c 4

Konzepte der AI: Maschinelles Lernen

fuzzy-entscheidungsbäume

Erstes Mathe-Tutorium am Themen können gewählt werden unter:

Vorlesung Wissensentdeckung

Maschinelles Lernen: Symbolische Ansätze

Einführung in das Maschinelle Lernen I

Künstliche Intelligenz Maschinelles Lernen

Maschinelles Lernen: Symbolische Ansätze

Einführung in die Methoden der Künstlichen Intelligenz. Suche bei Spielen

Entscheidungsbäume aus großen Datenbanken: SLIQ

4 Induktion von Regeln

3.3 Nächste-Nachbarn-Klassifikatoren

Übersicht. Nebenläufige Programmierung: Praxis und Semantik. Synchronisation (4) Eine untere Schranke für den Platzbedarf

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1

Maschinelles Lernen Entscheidungsbäume

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

Darstellung, Verarbeitung und Erwerb von Wissen

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Hypothesenbewertungen: Übersicht

Moderne Methoden der KI: Maschinelles Lernen

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

Zwei-Spieler-Spiele. Einführung in die Methoden der Künstlichen Intelligenz. Suche bei Spielen. Schach. Schach (2)

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume

Einführung in die Methoden der Künstlichen Intelligenz. Suche bei Spielen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone

Algorithmen und Datenstrukturen 2

Maschinelles Lernen: Symbolische Ansätze

11. Übung Knowledge Discovery

Vorlesung Maschinelles Lernen

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)

Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n)

Data Mining - Wiederholung

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array

8. Reinforcement Learning

Einführung in Heuristische Suche

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

Seminar Text- und Datamining Datamining-Grundlagen

Klassische Klassifikationsalgorithmen

Kryptographische Protokolle

Klassische Klassifikationsalgorithmen

Übungsblatt 6 Lösungen

Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8

Kapitel III Selektieren und Sortieren

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Population und Stichprobe Wahrscheinlichkeitstheorie II

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Zwei-Spieler-Spiele. Einführung in die Methoden der Künstlichen Intelligenz. Suche bei Spielen. Schach. Schach (2)

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array

Kursthemen 11. Sitzung. Spezielle diskrete Verteilungen: Auswahlexperimente. Spezielle diskrete Verteilungen: Auswahlexperimente

Machine Learning & Künstliche Intelligenz

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Approximate Frequency Counts over Data Streams

Kapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11

Künstliche Intelligenz

1. Lernen von Konzepten

Algorithmen und Datenstrukturen

Grundlagen der Künstlichen Intelligenz

Ein Fragment von Pascal

Der Bestimmtheitssatz

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Learning to Optimize Mobile Robot Navigation Based on HTN Plans

VI.4 Elgamal. - vorgestellt 1985 von Taher Elgamal. - nach RSA das wichtigste Public-Key Verfahren

Maschinelles Lernen: Symbolische Ansätze

Algorithmische Bioinformatik 1

Transkript:

Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Stand der Folien: 14. Februar 2013

Einführung Direkte Programmierung eines intelligenten Agenten nicht möglich (bisher) Daher benötigt: Maschinelles Lernen Viele Ansichten / Begriffe, was maschinelles Lernen ist Erfolgreichste Ansätze verwenden statistische / stochastische Methoden Basieren auf Adaption von Werten / Gewichten D. Sabel KI WS 12/13 Maschinelles Lernen 2/45

Lernen und Agenten Lernen soll Performanz des Agenten verbessern: Verbesserung der internen Repräsentation Optimierung bzw. Beschleunigung der Erledigung von Aufgaben. Erweiterung des Spektrums oder der Qualität der Aufgaben, die erledigt werden können. D. Sabel KI WS 12/13 Maschinelles Lernen 3/45

Beispiele Anpassung / Erweiterung des Lexikons e. computerlinguistischen Systems Inhalt wird angepasst, aber auch gleichzeitig die Semantik Bewertungsfunktion im Zweipersonenspiel (Adaption der Gewichte), war für Dame und Backgammon erfolgreich Lernen einer Klassifikation durch Trainingsbeispiele D. Sabel KI WS 12/13 Maschinelles Lernen 4/45

Struktur eines lernenden Systems Agent: (ausführende Einheit, performance element). Soll verbessert werden anhand von Erfahrung Lerneinheit: (learning element) Steuerung des Lernvorgangs. Vorgaben was schlecht ist. Bewertungseinheit (critic) und Problemgenerator Umwelt: Umwelt in der aggiert wird (künstlich oder real) D. Sabel KI WS 12/13 Maschinelles Lernen 5/45

Lernmethoden Überwachtes Lernen (supervised learning) Es gibt einen allwissenden Lehrer Er sagt dem Agent, nach seiner Aktion, ob diese richtig / falsch wahr unmittelbares Feedback Alternative: Gebe positiv/negative Beispiele am Anfang vor D. Sabel KI WS 12/13 Maschinelles Lernen 6/45

Lernmethoden Überwachtes Lernen (supervised learning) Es gibt einen allwissenden Lehrer Er sagt dem Agent, nach seiner Aktion, ob diese richtig / falsch wahr unmittelbares Feedback Alternative: Gebe positiv/negative Beispiele am Anfang vor Unüberwachtes Lernen (unsupervised learning) Agent, weiß nicht, was richtig ist Bewertung der Güte der Aktion z.b. Agent misst den Effekt selbst D. Sabel KI WS 12/13 Maschinelles Lernen 6/45

Lernmethoden Überwachtes Lernen (supervised learning) Es gibt einen allwissenden Lehrer Er sagt dem Agent, nach seiner Aktion, ob diese richtig / falsch wahr unmittelbares Feedback Alternative: Gebe positiv/negative Beispiele am Anfang vor Unüberwachtes Lernen (unsupervised learning) Agent, weiß nicht, was richtig ist Bewertung der Güte der Aktion z.b. Agent misst den Effekt selbst Lernen durch Belohnung/Bestrafung (reinforcement learning) Lernverfahren belohnen gute Aktion, bestrafen schlechte D.h. Aktion ist bewertbar, aber man kennt den richtigen Parameter nicht D. Sabel KI WS 12/13 Maschinelles Lernen 6/45

Lernmethoden (2) Mögliche Vorgehensweisen: inkrementell, alle Beispiele auf einmal. Mögliche Rahmenbedingungen: Beispielwerte: exakt / ungefähr (fehlerhaft) nur positive bzw. positive und negative Beispiele D. Sabel KI WS 12/13 Maschinelles Lernen 7/45

Maßzahlen Klassifikationsverfahren Klassifikation anhand von Eigenschaften (Attributen) Beispiele: Vogel: kann-fliegen, hat-federn, Farbe,... Vorhersage, ob ein Auto im kommenden Jahr einen Defekt hat: Alter, Kilometerstand, letzte Reparatur, Marke,... Medizinischer Test auf Krankheit: Symptome, Blutwerte,... Kreditwürdigkeit e. Bankkunden: Einkommen, Alter, Eigentumsverhältnisse, Adresse D. Sabel KI WS 12/13 Maschinelles Lernen 8/45

Maßzahlen Klassifikator Eingabe Attribute Klassifikator Gehört Objekt in Klasse? Ausgabe Ja (1) Nein (0) D. Sabel KI WS 12/13 Maschinelles Lernen 9/45

Maßzahlen Abstrakte Situation Menge M von Objekten (mit innerer Struktur) Programm P : M {0, 1} Wahre Klassifikation K : M {0, 1} D. Sabel KI WS 12/13 Maschinelles Lernen 10/45

Maßzahlen Abstrakte Situation Menge M von Objekten (mit innerer Struktur) Programm P : M {0, 1} Wahre Klassifikation K : M {0, 1} Eingabe: Objekt x Wenn K(x) = P (x), dann liegt das Programm richtig richtig-positiv: Wenn P (x) = 1 und K(x) = 1 richtig-negativ: Wenn P (x) = 0 und K(x) = 0 Wenn K(x) P (x), dann liegt das Programm falsch: falsch-positiv: Wenn P (x) = 1, aber K(x) = 0 falsch-negativ: Wenn P (x) = 0, aber K(x) = 1 D. Sabel KI WS 12/13 Maschinelles Lernen 10/45

Maßzahlen Beispiel: Schwangerschaftstest Beispieldaten: 200 durchgeführte Tests Test ergab... positiv negativ Schwangere Frauen 59 1 Nichtschwangere Frauen 15 125 D. Sabel KI WS 12/13 Maschinelles Lernen 11/45

Maßzahlen Beispiel: Schwangerschaftstest Beispieldaten: 200 durchgeführte Tests Test ergab... positiv negativ Schwangere Frauen 59 1 Nichtschwangere Frauen 15 125 Richtig positiv: Frau schwanger, Test sagt schwanger D. Sabel KI WS 12/13 Maschinelles Lernen 11/45

Maßzahlen Beispiel: Schwangerschaftstest Beispieldaten: 200 durchgeführte Tests Test ergab... positiv negativ Schwangere Frauen 59 1 Nichtschwangere Frauen 15 125 Richtig positiv: Frau schwanger, Test sagt schwanger Falsch negativ: Frau schwanger, Test sagt nicht schwanger D. Sabel KI WS 12/13 Maschinelles Lernen 11/45

Maßzahlen Beispiel: Schwangerschaftstest Beispieldaten: 200 durchgeführte Tests Test ergab... positiv negativ Schwangere Frauen 59 1 Nichtschwangere Frauen 15 125 Richtig positiv: Frau schwanger, Test sagt schwanger Falsch negativ: Frau schwanger, Test sagt nicht schwanger Falsch positiv: Frau nicht schwanger, Test sagt schwanger D. Sabel KI WS 12/13 Maschinelles Lernen 11/45

Maßzahlen Beispiel: Schwangerschaftstest Beispieldaten: 200 durchgeführte Tests Test ergab... positiv negativ Schwangere Frauen 59 1 Nichtschwangere Frauen 15 125 Richtig positiv: Frau schwanger, Test sagt schwanger Falsch negativ: Frau schwanger, Test sagt nicht schwanger Falsch positiv: Frau nicht schwanger, Test sagt schwanger Richtig negativ: Frau nicht schwanger, Test sagt nicht schwanger D. Sabel KI WS 12/13 Maschinelles Lernen 11/45

Maßzahlen Beispiel: Schwangerschaftstest Beispieldaten: 200 durchgeführte Tests Test ergab... positiv negativ Schwangere Frauen 59 1 Nichtschwangere Frauen 15 125 Richtig positiv: Frau schwanger, Test sagt schwanger Falsch negativ: Frau schwanger, Test sagt nicht schwanger Falsch positiv: Frau nicht schwanger, Test sagt schwanger Richtig negativ: Frau nicht schwanger, Test sagt nicht schwanger Wie gut ist der Test? D. Sabel KI WS 12/13 Maschinelles Lernen 11/45

Maßzahlen Maßzahlen M Gesamtmenge aller zu untersuchenden Objekte: Recall (Richtig-Positiv-Rate, hit rate) {x M P (x) = 1 K(x) = 1} {x M K(x) = 1} D.h. Anteil richtig klassifizierter, positiver Objekte D. Sabel KI WS 12/13 Maschinelles Lernen 12/45

Maßzahlen Maßzahlen M Gesamtmenge aller zu untersuchenden Objekte: Recall (Richtig-Positiv-Rate, hit rate) {x M P (x) = 1 K(x) = 1} {x M K(x) = 1} D.h. Anteil richtig klassifizierter, positiver Objekte Beispiel (60 Schwangere, 59 mal positiv) 59 98, 3% 60 D. Sabel KI WS 12/13 Maschinelles Lernen 12/45

Maßzahlen Maßzahlen (2) Richtig-Negativ-Rate, correct rejection rate {x M P (x) = 0 K(x) = 0} {x M K(x) = 0} D.h. Anteil richtig klassifizierter, negativer Objekte D. Sabel KI WS 12/13 Maschinelles Lernen 13/45

Maßzahlen Maßzahlen (2) Richtig-Negativ-Rate, correct rejection rate {x M P (x) = 0 K(x) = 0} {x M K(x) = 0} D.h. Anteil richtig klassifizierter, negativer Objekte Beispiel (140 Nicht-Schwangere, 125 mal negativ) 125 89, 3% 140 D. Sabel KI WS 12/13 Maschinelles Lernen 13/45

Maßzahlen Maßzahlen (3) Precision (Präzision, positiver Vorhersagewert) {x M P (x) = 1 K(x) = 1} {x M P (x) = 1} D.h. Anteil der richtigen unten den als scheinbar richtig erkannten D. Sabel KI WS 12/13 Maschinelles Lernen 14/45

Maßzahlen Maßzahlen (3) Precision (Präzision, positiver Vorhersagewert) {x M P (x) = 1 K(x) = 1} {x M P (x) = 1} D.h. Anteil der richtigen unten den als scheinbar richtig erkannten Beispiel (59 Schwangere richtig erkannt, Test positiv: 59 + 15 = 74) 59 79, 8% 74 D. Sabel KI WS 12/13 Maschinelles Lernen 14/45

Maßzahlen Maßzahlen (4) Negative-Vorhersage Rate {x M P (x) = 0 K(x) = 0} {x M P (x) = 0} D.h. Anteil der richtig als falsch klassifizierten unter allen als falsch klassifizierten D. Sabel KI WS 12/13 Maschinelles Lernen 15/45

Maßzahlen Maßzahlen (4) Negative-Vorhersage Rate {x M P (x) = 0 K(x) = 0} {x M P (x) = 0} D.h. Anteil der richtig als falsch klassifizierten unter allen als falsch klassifizierten Beispiel (125 Nicht-Schwangere richtig erkannt, Test negativ: 125 + 1 = 126) 125 99, 2% 126 D. Sabel KI WS 12/13 Maschinelles Lernen 15/45

Maßzahlen Maßzahlen (5) F -Maß: Harmonisches Mittel aus Precision und Recall: F = 2 (precision recall) (precision + recall) D. Sabel KI WS 12/13 Maschinelles Lernen 16/45

Maßzahlen Maßzahlen (5) F -Maß: Harmonisches Mittel aus Precision und Recall: F = 2 (precision recall) (precision + recall) Beispiel (Precision = 79,8 % und Recall = 98,3 %) F = 2 0, 798 0, 983 0, 784 2 0, 88 0, 798 + 0, 983 1, 781 D. Sabel KI WS 12/13 Maschinelles Lernen 16/45

Maßzahlen Weitere Beispiele Bei seltenen Krankheiten möglich: Guter Recall (Anteil der Kranken, die erkannt wurden), aber schlechte Präzision (viele false-positives) Bsp: Klassifikator: Körpertemperatur über 38,5 C = Gelbfieber. In Deutschland haben 10.000 Menschen Fieber mit 38,5 C aber nur 1 Mensch davon hat Gelbfieber Recall = 1 1 = 1 Precision = 1 10.000 = 0, 0001 F -Wert 0 Fazit: Man muss immer beide Maße betrachten! D. Sabel KI WS 12/13 Maschinelles Lernen 17/45

Weiteres Vorgehen Ziel: Finde effizientes Klassifikatorprogramm Vorher: Kurzer Exkurs zu Wahrscheinlichkeiten und zur Entropie D. Sabel KI WS 12/13 Maschinelles Lernen 18/45

Exkurs: Wahrscheinlichkeiten, Entropie Sei X ein Orakel (n-wertige Zufallsvariable) X liefert Wert a i aus {a 1,..., a n } p i = Wahrscheinlichkeit, dass X den Wert a i liefert Folge von Orakelausgaben: b 1,..., b m Je länger die Folge: Anteil der a i in der Folge nähert sich p i {p 1,..., p n } nennt man auch diskrete Wahrscheinlichkeitsverteilung der Menge {a 1,..., a n } bzw. des Orakels X Es gilt stets i p i = 1 Sind a i Zahlen, dann ist der Erwartungswert E(X) = i p i a i D. Sabel KI WS 12/13 Maschinelles Lernen 19/45

Exkurs: Wahrscheinlichkeiten, Entropie (2) Urnenmodell: X benutzt einen Eimer mit Kugeln beschriftet mit a 1,..., a n und zieht bei jeder Anfrage zufällig eine Kugel (und legt sie zurück) Dann gilt: p i = relative Häufigkeit von a i -Kugeln in der Urne = a i -Kugeln in der Urne Anzahl alle Kugeln in der Urne D. Sabel KI WS 12/13 Maschinelles Lernen 20/45

Exkurs: Wahrscheinlichkeiten, Entropie (3) Gegeben: Wahrscheinlichkeitsverteilung p i, i = 1,..., n Informationsgehalt des Zeichens a k Interpretation: I(a k ) = log 2 ( 1 p k ) = log 2 (p k ) 0 Grad der Überraschung beim Ziehen des Symbols a i, oder auch: Wie oft muss man das Orakel im Mittel fragen, um a i zu erhalten D.h. Selten auftretenden Zeichen: haben hohe Überraschung Bei nur einem Zeichen:p 1 = 1, I(p 1 ) = 0 D. Sabel KI WS 12/13 Maschinelles Lernen 21/45

Exkurs: Wahrscheinlichkeiten, Entropie (4) Entropie (Mittlerer Informationsgehalt) I(X) = n p i I(a i ) = n p i log 2 ( 1 p i ) = n p i log 2 (p i ) 0 i=1 i=1 entspricht in etwa, der mittleren Überraschung i=1 D. Sabel KI WS 12/13 Maschinelles Lernen 22/45

Beispiele 8 Objekte mit gleicher Wahrscheinlichkeit (p i = 1 8 ) Informationsgehalt jedes a i : log 2 ( 1 1 ) = log 2 8 = 3 8 Entropie 8 p i 3 = 8 1 8 3 = 3 i=1 i=1 D. Sabel KI WS 12/13 Maschinelles Lernen 23/45

Beispiele 8 Objekte mit gleicher Wahrscheinlichkeit (p i = 1 8 ) Informationsgehalt jedes a i : log 2 ( 1 1 ) = log 2 8 = 3 8 Entropie 8 p i 3 = 8 1 8 3 = 3 i=1 i=1 1000 Objekte mit gleicher Wahrscheinlichkeit (p i = 1 1000 ) Informationsgehalt jedes a i : log 2 (1/1000) = 9.966 Entropie = 9.996 D. Sabel KI WS 12/13 Maschinelles Lernen 23/45

Beispiele 8 Objekte mit gleicher Wahrscheinlichkeit (p i = 1 8 ) Informationsgehalt jedes a i : log 2 ( 1 1 ) = log 2 8 = 3 8 Entropie 8 p i 3 = 8 1 8 3 = 3 i=1 i=1 1000 Objekte mit gleicher Wahrscheinlichkeit (p i = 1 1000 ) Informationsgehalt jedes a i : log 2 (1/1000) = 9.966 Entropie = 9.996 8 Objekte: p 1 = 0.4994, p 2 = 0.4994, p i = 0.001 für i = 3,..., 8 Informationsgehalt a 1, a 2 : log 2 (0.04994) 1.002 a i : log 2 (0.001) 9.966 Entropie: 2 0.4994 1.002 + 6 0.001 9.996 1.061 D. Sabel KI WS 12/13 Maschinelles Lernen 23/45

Beispiele Bernoulli-Experiment: p Kopf und p Zahl = 1 p Kopf 1 0.8 Entropie 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1 p Kopf D. Sabel KI WS 12/13 Maschinelles Lernen 24/45

Entscheidungsbaumlernen D. Sabel KI WS 12/13 Maschinelles Lernen 25/45

Lernen von Entscheidungsbäumen (1) Objekt mit Attributen Beispiel: Es gibt eine endliche Menge A von Attributen. zu jedem Attribut a A: Menge von möglichen Werten W a. Wertebereich endlich, oder R. Ein Objekt wird beschrieben durch eine Funktion A a A W a. Alternativ: Tupel mit A Einträgen Ein Konzept K ist repräsentiert durch ein Prädikat P K auf der Menge der Objekte. P K Alle Objekte Alle Objekte: Bücher Attribute: (Autor, Titel, Seitenzahl, Preis, Erscheinungsjahr). Konzepte billiges Buch (Preis 10); umfangreiches Buch (Seitenzahl 500), altes Buch (Erscheinungjahr < 1950) D. Sabel KI WS 12/13 Maschinelles Lernen 26/45

Entscheidungsbaum Entscheidungsbaum zu einem Konzept K: endlicher Baum innere Knoten: Abfragen eines Attributwerts Bei reellwertigen Attributen a v für v R. 2 Kinder: Für Ja und Nein Bei diskreten Attributen a mit Werten w 1,..., w n : n Kinder: Für jeden Wert eines Blätter: Markiert mit Ja oder Nein (manchmal auch mit Ja oder Nein ) Pro Pfad: Jedes Attribut (außer rellwertige) nur einmal Der Entscheidungsbaum gibt gerade an, ob ein Objekt zum Konzept gehört. D. Sabel KI WS 12/13 Maschinelles Lernen 27/45

Beispiel Objekte: Äpfel mit Attributen: Geschmack (süß/sauer), Farbe (rot/grün), Umfang (in cm) Konzept: guter Apfel Ja rot Geschmack? süß Farbe? grün Umfang 12cm? ja nein Nein Nein sauer Umfang 15cm? ja nein Ja Nein Ist der Baum optimal? D. Sabel KI WS 12/13 Maschinelles Lernen 28/45

Beispiel Objekte: Äpfel mit Attributen: Geschmack (süß/sauer), Farbe (rot/grün), Umfang (in cm) Konzept: guter Apfel Geschmack? süß sauer Farbe? Umfang 15cm? rot grün ja nein Ja Nein Ja Nein Ist der Baum optimal?nein D. Sabel KI WS 12/13 Maschinelles Lernen 28/45

Entscheidungsbäume (2) Wofür werden sie benutzt? als Klassifikator für Konzepte Woher kommt der Baum? Durch Lernen einer Trainingsmenge Was ist zu beachten? Der Baum sollte möglichst kurze Pfade haben Trainingsmenge muss positive und negative Beispiele beinhalten D. Sabel KI WS 12/13 Maschinelles Lernen 29/45

Gute Entscheidungsbäume Ein guter Entscheidungsbaum ist ein möglichst kleiner, d.h. der eine möglichst kleine mittlere Anzahl von Anfragen bis zur Entscheidung benötigt. Wir betrachten: Algorithmen zur Konstruktion von guten Entscheidungsbäumen Ansatz: Verwende die Entropie (verwandt zur Konstruktion von Huffman-Bäumen) D. Sabel KI WS 12/13 Maschinelles Lernen 30/45

Vorgehen: Auswahl des nächsten Attributs Menge M von Objekten mit Attributen geteilt in positive und negative Beispiele. Annahme: Objekte sind gleichverteilt und spiegeln die Wirklichkeit wider. Sei p = Anzahl positiver Beispiele in M n = Anzahl negativer Beispiele in M Entropie der Menge M: I(M) = p p + n log 2( p + n ) + n p p + n log 2( p + n n ) D. Sabel KI WS 12/13 Maschinelles Lernen 31/45

Vorgehen: Auswahl des nächsten Attributs (2) Wie verändert sie die Entropie nach Wahl von Attribut a? Sei m(a) der Wert des Attributs a des Objekts m M. Sei a ein Attribut mit Werten w 1,..., w k Dann zerlegt das Attribut a die Menge M in Mengen M i := {m M m(a) = w i } Seien p i, n i die Anzahl positiver/negativer Beispiele in M i. Gewichtete Mittelwert des entstandenen Informationsgehalt nach Auswahl des Attributs a I(M a) = k P (a = w i ) I(M i ) i=1 D. Sabel KI WS 12/13 Maschinelles Lernen 32/45

Vorgehen: Auswahl des nächsten Attributs (2) Wie verändert sie die Entropie nach Wahl von Attribut a? Sei m(a) der Wert des Attributs a des Objekts m M. Sei a ein Attribut mit Werten w 1,..., w k Dann zerlegt das Attribut a die Menge M in Mengen M i := {m M m(a) = w i } Seien p i, n i die Anzahl positiver/negativer Beispiele in M i. Gewichtete Mittelwert des entstandenen Informationsgehalt nach Auswahl des Attributs a I(M a) = k P (a = w i ) }{{} p i +n i p+n i=1 I(M i ) }{{} p i p i +n i log 2 ( p i +n i p i )+ n i p i +n i log 2 ( p i +n i n i ) D. Sabel KI WS 12/13 Maschinelles Lernen 32/45

Vorgehen: Auswahl des nächsten Attributs (3) I(M a) = k p i + n ( i p + n pi log p i + n 2 ( p i + n i )+ n i log i p i p i + n 2 ( p i + n ) i ) i n i i=1 Wähle das Attribut a mit bestem Informationsgewinn: I(M) I(M a) Zur Wohldefiniertheit, setzen wir: 0 a log 2( a 0 ) := 0 D. Sabel KI WS 12/13 Maschinelles Lernen 33/45

Das Verfahren ID3 (Iterative Dichotomiser 3) Algorithmus ID3-Verfahren Eingabe: Menge M von Objekten mit Attributen Algorithmus: Erzeuge Wurzel als offenen Knoten mit Menge M while es gibt offene Knoten do wähle offenen Knoten K mit Menge M if M enthält nur positive Beispiele then schließe K mit Markierung Ja else-if M enthält nur negative Beispiele then schließe K mit Markierung Nein else-if M = then schließe K mit Markierung Ja oder Nein else finde Attribut a mit maximalem Informationsgewinn: I(M) I(M a) markiere K mit a und schließe K erzeuge Kinder von K: Ein Kind pro Attributausprägung w i von a mit Menge M i Füge Kinder zu den offenen Knoten hinzu end-if end-while D. Sabel KI WS 12/13 Maschinelles Lernen 34/45

Bemerkungen Praktische Verbesserung: Stoppe auch, wenn der Informationsgewinn zu klein Jedes diskrete Attribut wird nur einmal pro Pfad abgefragt, da beim zweiten Mal der Informationsgewinn 0 ist Wenn man eine Beispielmenge hat, die den ganzen Tupelraum abdeckt, dann wird genau das Konzept gelernt. Reellwertige Attribute: Leichte Anpassung möglich. D. Sabel KI WS 12/13 Maschinelles Lernen 35/45

Beispiel Äpfel: Geschmack {süß, sauer} und Farbe {rot, grün}. Menge M = {(süß, rot), (süß, grün), (sauer, rot), (sauer, grün)}. Konzept: guter Apfel Positiv: {(süß, rot), (süß, grün)} Negativ: {(sauer, rot), (sauer, grün)} p = 2, n = 2 I(M) = 0.5 log 2 2 + 0.5 log 2 2 = 1 D. Sabel KI WS 12/13 Maschinelles Lernen 36/45

Beispiel (Forts) Attribut Geschmack: p süß = 2, n süß = 0 p sauer = 0, n sauer = 2 I(M Geschmack) = 2 4 ( 2 2 log 2 2 + 0 2 log 2 0 )+ 2 4 ( 0 2 log 2 0 + 2 2 log 2 2 ) = 0 I(M) I(M Geschmack) = 1 Attribut Farbe: p rot = 1, n rot = 1 p grün = 1, n grün = 1 I(M Farbe) = 2 4 ( 1 2 log 2 1 + 1 2 log 2 1 ) + 2 4 ( 1 2 log 2 1 + 1 2 log 2 1 ) = 1 I(M) I(M Farbe) = 0 D. Sabel KI WS 12/13 Maschinelles Lernen 37/45

Beispiel Ergibt: I(M) = 0.8112 süß,rot süß,grün sauer,rot sauer,grün 10 20 4 6 I(M Geschmack) = 0 I(M) I(M Geschmack) = 0.8112 Attribut Farbe: I(M Farbe) = 0.8086 I(M) I(M Farbe) = 0.0026 Grund: Die Farben sind in positiv / negativ nicht relativ gleich D. Sabel KI WS 12/13 Maschinelles Lernen 38/45

Beispiel süß,rot süß,grün sauer,rot sauer,grün 10 20 3 6 I(M) = 0.7793 I(M Geschmack) = 0 I(M) I(M Geschmack) = 0.7793 Attribut Farbe: I(M Farbe) = 0.7793 I(M) I(M Farbe) = 0 D. Sabel KI WS 12/13 Maschinelles Lernen 39/45

Beispiel Äpfel: Geschmack {süß, sauer} und Farbe {rot, grün}, Nr {1,..., 4} Menge M = {(süß, rot, 1), (süß, grün, 2), (sauer, rot, 3), (sauer, grün, 4)}. Dann: I(M) = 1 I(M Geschmack) = 1 I(M Farbe) = 0 I(M Nr) = 1 Unfair: Apfelnr ist eindeutig, und stellt implizit mehr Ja/Nein Fragen dar. Abhilfe: Weglassen der Apfelnr Allgemein: ID3 bevorzugt Attribute mit vielen Werten Daher: C4.5 als Anpassung von ID3 D. Sabel KI WS 12/13 Maschinelles Lernen 40/45

Beispiel: Konzept Apfel schmeckt wie er aussieht Äpfel: Geschmack {süß, sauer} und Farbe {rot, grün, gelb} Menge M = einmal jede Kombination positiv: (rot,süß), (grün,sauer), (gelb,süß), (gelb,sauer) I(M) = 0.9183 I(M Farbe = 0.6666 und I(M) I(M Farbe) = 0.2516 I(M Geschmack) = 0.9183 und I(M) I(M Geschmack) = 0 Wähle Farbe und dann Geschmack. D. Sabel KI WS 12/13 Maschinelles Lernen 41/45

Die Variante C4.5 ID3 bevorzugt Attribute mit vielen Ausprägungen C4.5 ändert dies, und normiert daher den Informationsgewinn Algorithmus wie ID3 mit einem Unterschied: normierter Informationsgewinn = (I(M) I(M a)) Normierungsfaktor Normierungsfaktor für Attribut a Werten w i, i = 1,..., k: 1 k 1 P (a = w i ) log 2 ( P (a = w i ) ) i=1 D. Sabel KI WS 12/13 Maschinelles Lernen 42/45

Beispiel Äpfel: Geschmack {süß, sauer} und Farbe {rot, grün}, Nr {1,..., 4} Menge M = {(süß, rot, 1), (süß, grün, 2), (sauer, rot, 3), (sauer, grün, 4)}. Dann: I(M) = 1 I(M Geschmack) = 1 I(M Farbe) = 0 I(M Nr) = 1 Normierungsfaktoren: Geschmack: 1 2/4 log 2 (4/2)+2/4 log 2 (4/2) = 1 1 = 1 Farbe: 1 2/4 log 2 (4/2)+2/4 log 2 (4/2) = 1 1 = 1 Nr: 1 1/4 log 2 (4/1)+1/4 log 2 (4/1)+1/4 log 2 (4/1)+1/4 log 2 (4/1) = 1 2 D. Sabel KI WS 12/13 Maschinelles Lernen 43/45

Übergeneralisierung Effekt: Beispiele werden eingeordnet, aber der Entscheidungsbaum unterscheidet zu fein Grund: Beispiele nicht repräsentativ bzw. ausreichend. Beispiel: Krankheitsdiagnose: Alle positiven Beispiele sind jünger als 25 oder älter als 30 Übergeneralisierung: Alter zwischen 25 und 30 = nicht krank. D. Sabel KI WS 12/13 Maschinelles Lernen 44/45

Übergeneralisierung (2) Lösung: Pruning des Entscheidungbaums Stoppe Aufbau des Baums ab einer gewissen Schranke, da alle weiteren Attribute vermutlich irrelevant. Blatt-Markierung: Jenachdem welche Beispiele signifikant sind bisher Stoppen kann durch statistische Tests gesteuert werden Verrauschte Daten: Gleiches Verfahren, d.h. Pruning D. Sabel KI WS 12/13 Maschinelles Lernen 45/45