12. Maschinelles Lernen



Ähnliche Dokumente
4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

Künstliche Intelligenz Maschinelles Lernen

Newsletter e-rechnung an die öffentliche Verwaltung

Erfahrungen mit Hartz IV- Empfängern

Software Engineering. Sommersemester 2012, Dr. Andreas Metzger

2. Lernen von Entscheidungsbäumen

Bachelor-/Masterarbeit: Entwicklung eines Konzepts zur Gestaltung interaktiver Benutzeroberflächen (GUI/NUI) für Montagearbeitsplätze

Abgestimmte Kennwortrichtlinien

Erlä uterungen zu Meldungen IP Losses Art. 101 CRR

Aussage: Das Seminar ist hilfreich für meine berufliche Entwicklung

Repetitionsaufgaben Wurzelgleichungen

4. Lernen von Entscheidungsbäumen

Anita Breitner- Käser Homepage: regenbogen.geisenfeld.de E- Mail:

Korrelation (II) Korrelation und Kausalität

Wir machen neue Politik für Baden-Württemberg

Festigkeit von FDM-3D-Druckteilen

Titel des Mysterys: Cola-Mentos-Fontäne

Glaube an die Existenz von Regeln für Vergleiche und Kenntnis der Regeln

HOTEL BÄREN. Familie Sauter Beobachtungen & Problembereiche. Interview mit Stefan Sauter (Miteigentümer)

Merkblatt Sicherungsstrategien. Das Archivbit. Datensicherung. Es müssen prinzipiell zwei Arten von Sicherungsstrategien unterschieden werden:

Newsletter e-rechnung an die öffentliche Verwaltung

Senioren ans Netz. schreiben kurze Texte. Lektion 9 in Themen aktuell 2, nach Übung 7

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

Grundlagen der Theoretischen Informatik, SoSe 2008

Anwendertreffen 20./21. Juni

Neuigkeiten in SVENSON AccountPOOL 1.7.4

Integrierte Dienstleistungen regionaler Netzwerke für Lebenslanges Lernen zur Vertiefung des Programms. Lernende Regionen Förderung von Netzwerken

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Anleitung über den Umgang mit Schildern

MORE Profile. Pass- und Lizenzverwaltungssystem. Stand: MORE Projects GmbH

LIFO -Stärkenmanagement: Übungen und Spiele

Wie ist das Wissen von Jugendlichen über Verhütungsmethoden?

Lehrer: Einschreibemethoden

Schritt 1 der gender-sensitiven Personalauswahl und -beurteilung: Anleitung Anforderungsanalyse

Übungen Programmieren 1 Felix Rohrer. Übungen

Deutliche Mehrheit der Bevölkerung für aktive Sterbehilfe

SWOT Analyse zur Unterstützung des Projektmonitorings

rmdata GeoProject Release Notes Version 2.4 Organisation und Verwaltung von rmdata Projekten Copyright rmdata GmbH, 2015 Alle Rechte vorbehalten

GI-Technologien zur Umsetzung der EU-Wasserrahmenrichtlinie (WRRL): Wissensbasen. Teil 1: Einführung: Wissensbasis und Ontologie.

Umfrage. Didaktischer Kommentar. Lernplattform

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

MARCANT - File Delivery System

SCHRITT 1: Öffnen des Bildes und Auswahl der Option»Drucken«im Menü»Datei«...2. SCHRITT 2: Angeben des Papierformat im Dialog»Drucklayout«...

CATIA Richtlinien. Es wird zuerst ein quadratischer Tank (geschlossene Form) konstruiert, dieser wird zu:

Erweiterung der Aufgabe. Die Notenberechnung soll nicht nur für einen Schüler, sondern für bis zu 35 Schüler gehen:

Erstellen von x-y-diagrammen in OpenOffice.calc

Bernadette Büsgen HR-Consulting

Reinforcement Learning

Statuten in leichter Sprache

Informationsblatt Induktionsbeweis

3. Lernen von Entscheidungsbäumen

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Fachdidaktik der Informatik Jörg Depner, Kathrin Gaißer

Ausbildung zum diplomierten Resilienz Coach

Implementierung von Manufacturing Execution Systemen (MES) Zusammenfassung

Informationen zum Projekt Selbstreflexives Lernen im schulischen Kontext

Daten sammeln, darstellen, auswerten

Stand 15. Oktober Fragen und Antworten

Label-Guide Stand:

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

1 Mathematische Grundlagen

Großbeerener Spielplatzpaten

UMSETZUNGSHILFE Exta Einladung zur Durchführung eines betrieblichen Eingliederungsmanagement nach 84 Abs. 2 SGB IX

Vorbereitung der Abiturzeugnisse mit CUBE-SVS

Fragebogen zur Erhebung der Zufriedenheit und Kooperation der Ausbildungsbetriebe mit unserer Schule

Dokumentation. Black- und Whitelists. Absenderadressen auf eine Blacklist oder eine Whitelist setzen. Zugriff per Webbrowser

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

Warum sind Schimpansen einzigartig?

Tutorium zur Mikroökonomie II WS 02/03 Universität Mannheim Tri Vi Dang. Aufgabenblatt 3 (KW 44) ( )

Vorkurs Mathematik Übungen zu Polynomgleichungen

Inhalt. Allgemeine Einführung. Argumentationsvermögen. Räumliches Vorstellungsvermögen. Begabungen und Fähigkeiten messen

Sehr wichtige Information

Mobile Intranet in Unternehmen

Approximation durch Taylorpolynome

The Cable Guy: Dynamische DNS-Aktualisierung in Windows 2000

Qualitätsbereich. Mahlzeiten und Essen

Anmerkungen zur Übergangsprüfung

Zeichen bei Zahlen entschlüsseln

Mining High-Speed Data Streams

Meinungen der Bürgerinnen und Bürger in Hamburg und Berlin zu einer Bewerbung um die Austragung der Olympischen Spiele

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

AutoCAD Dienstprogramm zur Lizenzübertragung

Häufig gestellte Fragen

Rente = laufende Zahlungen, die in regelmäßigen Zeitabschnitten (periodisch) wiederkehren Rentenperiode = Zeitabstand zwischen zwei Rentenzahlungen

Speicher in der Cloud

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Eigenwerte und Eigenvektoren von Matrizen

Digital Director Kompatibiltätsliste für Kameras

Datenbank LAP - Chefexperten Detailhandel

Formale Systeme, WS 2012/2013 Lösungen zu Übungsblatt 4

6.2 Scan-Konvertierung (Scan Conversion)

1 topologisches Sortieren

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Erstellen einer Collage. Zuerst ein leeres Dokument erzeugen, auf dem alle anderen Bilder zusammengefügt werden sollen (über [Datei] > [Neu])

DOWNLOAD. Kniffliges für gute Mathe-Schüler 2. Klasse 4. Anspruchsvolle Aufgaben durch Skizzen und Gleichungen lösen. in der 2.

Anleitung zum neuen Überaumbuchungssystem der Hochschule für Musik und Tanz Köln

Univariates Chi-Quadrat-Verfahren für ein dichotomes Merkmal und eine Messwiederholung: Test nach McNemar

AMS Leitbild. April Willkommen in der mobile family...

Zählen von Objekten einer bestimmten Klasse

Bundesverband Flachglas Großhandel Isolierglasherstellung Veredlung e.v. U g -Werte-Tabellen nach DIN EN 673. Flachglasbranche.

Transkript:

12. Maschinelles Lernen Maschinelles Lernen dient der Herbeiführung vn Veränderungen im System, die adaptiv sind in dem Sinne, daß sie es dem System ermöglichen, dieselbe der eine ähnliche Aufgabe beim nächsten Mal besser zu lösen. (Simn 1983) Ziele: Nutzbarmachung vn Erfahrungen Verbesserung der Leistungsfähigkeit Erweiterung des Wissens Erkennung vn Ähnlichkeiten Anpassung an sich verändernde Umweltbedingungen Einf. in die KI 12 1

Maschinelles Lernen: Mtivatin Mtive: Lernen als wichtiger Aspekt vn Intelligenz Entwicklung eines besseren Verständnisses des Lernvrgangs Unterstützung des Wissenserwerbs für wissensbasierte Systeme Mdellierung adaptiven Verhaltens Anwendungsgebiete: Intelligente Benutzerschnittstellen Intelligente Tutrsysteme Realisierung autnmer Systeme Generierung vn Prgrammen Einf. in die KI 12 2

Lernende Agenten (1) Perfrmance standard Critic Sensrs feedback learning gals Learning element changes knwledge Perfrmance element Envirnment Prblem generatr Agent Effectrs Einf. in die KI 12 3

Lernende Agenten: Kmpnenten Ausführungskmpnente (Perfrmance element): entspricht dem, was wir bisher als Agent bezeichnet haben. Aufnahme vn Perzepten, Auswahl vn Aktinen. Lernkmpnente (Learning element): bestimmt die ntwendigen Mdifikatinen der Ausführungskmpnente auf der Basis vn Kritik und Wissen über diese Kmpnente. Kritik (Critic): ermittelt aufgrund festgelegter Leistungskriterien die Qualität der Ausführungskmpnente. Prblemgeneratr (Prblem generatr): schlägt explrative Schritte vr, die u.u. auch subptimale Aktinen enthalten. Struktur und Gestaltung einer Lernkmpnente hängen vn der benötigten Ausführungskmpnente ab. Einf. in die KI 12 4

Entwurf vn Lernkmpnenten (1) Aufgaben: Generierung vn Lernzielen Verbesserung der Ausführungskmpnente Analyse: Welche Bestandteile der Ausführungskmpnente sind zu mdifizieren? Wie sieht der Repräsentatinsfrmalismus aus? Welcher Art sind mögliche Rückmeldungen? Auf welche Vrab-Infrmatin kann aufgesetzt werden? Einf. in die KI 12 5

Entwurf vn Lernkmpnenten (2) Ausführungskmpnenten: erzeugen Aktinen in Abhängigkeit vm aktuellen Zustand; leiten Eigenschaften des aktuellen Zustandes aus Perzeptflgen ab; besitzen Infrmatin über die Veränderung der Umgebung über der Zeit und die Effekte möglicher Aktinen; verwenden Bewertungsfunktinen, die Auskunft über die Adäquatheit bestimmter Aktinen geben (wie erstrebenswert ist ein bestimmter Zustand, wie nützlich ist eine bestimmte Aktin); Alle Funktinen vn Ausführungskmpnenten können erlernt bzw. durch Lernen verbessert werden. Einf. in die KI 12 6

Entwurf vn Lernkmpnenten (3) Beispiele: Ausführung einer Aktin und Bebachtung des resultierenden Umgebungszustandes führt zum Erlernen der Effekte vn Aktinen. Über die Rückmeldungen der Kritik, die aus externen Leistungskriterien und Perzepten berechnet werden, können Bewertungsfunktinen erlernt werden. Alle Bestandteile vn Ausführungskmpnenten können als mathematische Funktinen aufgefaßt werden. Lernen vn Funktinen Einf. in die KI 12 7

Methden des Maschinellen Lernens Überwachtes Lernen (Supervised Learning) Der Agent führt Aktinen aus und verwendet Infrmatin über die möglichen Effekte vn Aktinen. Die Kritik ermittelt aus Perzepten die tatsächlichen Effekte. Feedback Nicht-überwachtes Lernen (Unsupervised Learning) Der Agent erhält keine Infrmatin über die tatsächlichen Auswirkungen seiner Aktinen. Bebachtung und Vergleich der Perzepte Bewertungsfunktin ntwendig Reinfrcement Learning Der Agent erhält eine Bewertung seiner Aktinen, aber keine Infrmatin darüber, wie in einer bestimmten Situatin krrekt zu agieren ist. Einf. in die KI 12 8

Induktives Lernen Lernen aus Beispielen: (Supervised Learning) Die Lernkmpnente erhält zu einer Menge vn Eingabewerten die (annähernd) krrekten Ausgabewerte einer Funktin. Die Lernkmpnente verändert schrittweise die interne Repräsentatin dieser Funktin. Induktives Lernen: Entwicklung allgemeiner Muster, Schemata, der Regeln aus Beispieldaten Ableitung allgemeiner Aussagen aus speziellen Aussagen Erzeugen vn Mdellen und Therien Abstraktin Beispiel: ein Paar vn Ein-/Ausgabewerten (x, f (x)) einer Funktin f. Induktive Inferenz: Aus einer Menge vn Beispielen für eine Funktin f wird eine Funktin h erzeugt, die f apprximiert. h heißt die Hypthese. Einf. in die KI 12 9

Induktives Lernen: Beispiel (a) (b) (c) (d) (a) Paare (x, y) mit y = f (x) (b) h: Eine punktweise lineare Funktin. (c) h: Eine kmplexe Funktin, die ebenfalls alle gegebenen Beispielpaare trifft, sich aber für andere Eingabewerte vn (b) unterscheidet. (d) h: Eine einfache Funktin, die bis auf eine Ausnahme alle Beispielpaare trifft. Einf. in die KI 12 10

Ein lernender Reflex-Agent glbal examples functin REFLEX-PERFORMANCE-ELEMENT( percept) returns an actin if ( percept, a) in examples then return a else h INDUCE(examples) return h( percept) prcedure REFLEX-LEARNING-ELEMENT(percept, actin) inputs: percept, feedback percept actin, feedback actin examples examples ( percept,actin) Lernalgrithmen verwenden Präferenzen. Die Präferenz einer Hypthese gegenüber einer anderen (bias) ist durch Optimalitätskriterien gegeben. Inkrementelles Lernen: Anpassung der Hypthese h an neue Beispiele. Einf. in die KI 12 11

Repräsentatinsfrmalismen Lgik: Lernen vn lgischen Aussagen der Knzepten Entscheidungen: Ble sche Funktinen Entscheidungsbäume Versinsräume Neurnale Netze: Lernen nichtlinearer, numerischer Funktinen Einf. in die KI 12 12

Entscheidungsbäume Entscheidungsbaum-Induktin ist eines der einfachsten Lernverfahren. Entscheidungsbäume: Eingabe Ausgabe Knten Kanten Lgische Objekt- der Situatinsbeschreibung Ja/Nein-Entscheidung Tests: Hat ein Objekt eine bestimmte Eigenschaft (Attribut)? Mögliche Attributwerte Blätter Nullstellige Prädikate: Yes (T) bzw. N (F) Ein Entscheidungsbaum stellt die Ausführungskmpnente eines lernenden Systems dar. Einf. in die KI 12 13

Beispiel: Restaurant-Besuch Ziel: Test zur Entscheidung, b man auf einen freien Tisch warten sll. Attribute: Alternate: Gibt es ein anderes Restaurant in der Nähe? Bar: Gibt es eine Bar für die Wartezeit? Fri/Sat: Ist Freitag der Samstag? Hungry: Sind wir hungrig? Patrns: Wieviele Gäste sind schn da? (nne, sme, full) Price: Zu welcher Preiskategrie gehört das Restaurant? ($, $$, $$$) Raining: Regnet es? Reservatin: Haben wir eine Reservierung? Type: Art des Restaurants (French, Italian, Thai, Burger) WaitEstimate: Geschätzte Wartezeit (0 10, 10 30, 30 60, > 60) Einf. in die KI 12 14

Beispiel: Ein Entscheidungsbaum Ein Entscheidungsbaum kann als Repräsentatin einer Menge lgischer Implikatinen aufgefaßt werden. Eine mögliche Definitin des WillWait-Tests: Einf. in die KI 12 15

Patrns? Nne Sme Full N Yes WaitEstimate? >60 30 60 10 30 0 10 N Alternate? Hungry? Yes N Yes N Yes Reservatin? Fri/Sat? Yes Alternate? N Yes N Yes N Yes Bar? Yes N Yes Yes Raining? N Yes N Yes N Yes N Yes Einf. in die KI 12 16

Entscheidungsbaum-Induktin (1) Begriffe: Beispiel: Werte der verwendeten Attribute und Wert des Testprädikats. Klassifikatin: eines Beispiels ist der Wert des Testprädikats für das Beispiel. Entsprechend gibt es psitive und negative Beispiele. Trainingsmenge: Menge der für das Lernen verfügbaren Beispiele. Einf. in die KI 12 17

Example Attributes Gal Alt Bar Fri Hun Pat Price Rain Res Type Est WillWait X 1 Yes N N Yes Sme $$$ N Yes French 0 10 Yes X 2 Yes N N Yes Full $ N N Thai 30 60 N X 3 N Yes N N Sme $ N N Burger 0 10 Yes X 4 Yes N Yes Yes Full $ N N Thai 10 30 Yes X 5 Yes N Yes N Full $$$ N Yes French >60 N X 6 N Yes N Yes Sme $$ Yes Yes Italian 0 10 Yes X 7 N Yes N N Nne $ Yes N Burger 0 10 N X 8 N N N Yes Sme $$ Yes Yes Thai 0 10 Yes X 9 N Yes Yes N Full $ Yes N Burger >60 N X 10 Yes Yes Yes Yes Full $$$ N Yes Italian 10 30 N X 11 N N N N Nne $ N N Thai 0 10 N X 12 Yes Yes Yes Yes Full $ N N Burger 30 60 Yes Einf. in die KI 12 18

Entscheidungsbaum-Induktin (2) Das Vrgehen am Beispiel: Aufteilung der Trainingsmenge in psitive und negative Beispiele. Auswahl eines Attributes als erstes Testprädikat (Wurzel). Kriterium: Wie stark differenziert das Prädikat die Beispielmenge? Die Wahl vn Patrns als Testprädikat liefert für die Fälle Nne und Sme bereits eine Entscheidung. Type ist ein schlechtes Unterscheidungsmerkmal: Für jeden der vier möglichen Werte haben wir ebens viele psitive wie negative Beispiele. Wir wählen das wichtigste Unterscheidungsmerkmal als Wurzeltest. Einf. in die KI 12 19

Entscheidungsbaum-Induktin: Auswahl vn Testprädikaten Einf. in die KI 12 20

(a) +: X1,X3,X4,X6,X8,X12 : X2,X5,X7,X9,X10,X11 Patrns? Nne Sme Full +: : X7,X11 +: X1,X3,X6,X8 : +: X4,X12 : X2,X5,X9,X10 (b) +: X1,X3,X4,X6,X8,X12 : X2,X5,X7,X9,X10,X11 Type? French Italian Thai Burger +: X1 : X5 +: X6 : X10 +: X4,X8 : X2,X11 +: X3,X12 : X7,X9 (c) +: X1,X3,X4,X6,X8,X12 : X2,X5,X7,X9,X10,X11 Patrns? Nne Sme Full +: : X7,X11 +: X1,X3,X6,X8 : +: X4,X12 : X2,X5,X9,X10 Yes N Hungry? Y +: X4,X12 : X2,X10 N +: : X5,X9 Einf. in die KI 12 21

Entscheidungsbaum-Induktin (4) Zu jedem Nachflgerknten der Wurzel wird rekursiv ein neuer Entscheidungsbaum erzeugt für eine reduzierte Trainingsmenge eine reduzierte Attributmenge Flgende Fälle können auftreten: Es gibt swhl psitive als auch negative Beispiele. Wähle erneut das wichtigste Attribut als Testprädikat, um die verbleibenden Beispiele zu differenzieren, z.b. Hungry Alle Beispiele sind psitiv (negativ). Der Entscheidungsbaum ist kmplett; alle Beispiele sind klassifiziert. Es sind keine Beispiele vrhanden. Es gibt kein entsprechendes Beispiel; ein Default-Wert kann bestimmt werden. Einf. in die KI 12 22

Es gibt psitive und negative Beispiele, aber keine Attribute. Die Beispiele sind auf die gleiche Weise beschrieben, werden jedch unterschiedlich klassifiziert. Die Datenmenge ist inknsistent, d.h. sie enthält Fehler (Rauschen). Einf. in die KI 12 23

Entscheidungsbaum-Induktin: Ergebnis Patrns? Nne Sme Full N Yes Hungry? N Yes Type? N French Italian Thai Burger Yes N Fri/Sat? Yes N Yes N Yes Einf. in die KI 12 24

Ein Lernalgrithmus für Entscheidungsbäume functin DECISION-TREE-LEARNING(examples, attributes, default) returns a decisin tree inputs: examples, set f examples attributes, set f attributes default, default value fr the gal predicate if examples is empty then return default else if all examples have the same classificatin then return the classificatin else if attributes is empty then return MAJORITY-VALUE(examples) else best CHOOSE-ATTRIBUTE(attributes, examples) tree a new decisin tree with rt test best fr each value v i f best d examples i elements f examples with best = v i subtree DECISION-TREE-LEARNING(examples i, attributes best, MAJORITY-VALUE(examples)) add a branch t tree with label v i and subtree subtree end return tree Einf. in die KI 12 25

Entscheidungsbaum-Induktin (6) Merkmale: Lernaufgabe Generierung eines Entscheidungsbaums mit dem Ziel einer möglichst effizienten Klassifikatin, z.b. möglichst wenige Tests (möglichst flacher Entscheidungsbaum). Repräsentatinsfrmalismus Aussagenlgik Das zu lernende Knzept ist als Entscheidungsbaum darstellbar. Die Klassifikatin erflgt über Attribute mit einer (kleinen) endlichen Menge diskreter, sich gegenseitig ausschließender Werte. Die Sprache ist eingeschränkt auf einstellige Prädikate, d.h. getestet wird jeweils ein Objekt. Einf. in die KI 12 26

Entscheidungsbaum-Induktin (7) Merkmale (Frts.): Im allgemeinen sind viele verschiedene Entscheidungsbäume für ein Prblem möglich. Einfache Bäume werden bevrzugt. Die Teilbäume an einem Knten haben im allgemeinen unterschiedliche Struktur. Die Auswahl des nächsten zu testenden Attributs erflgt nach infrmatinstheretischen Gesichtspunkten: Das Attribut mit dem größten Unterscheidungsptential wird bevrzugt. Bestmögliche Separierung vn psitiven und negativen Beispielen. Ein Entscheidungsbaum kann für die Unterscheidung zwischen zwei (Yes, N) der mehr Klassen knstruiert werden. Einf. in die KI 12 27

Entscheidungsbaum-Induktin: Vrgehensweise Auswahl vn adäquaten Attributen, die auf der Basis ihrer Werte eine Unterscheidung der gewünschten Klassen erlauben. Im allgemeinen ist eine Kmbinatin verschiedener Attribute ntwendig, um zu entscheiden, welcher Klasse ein Beispiel angehört. Disjunktive Knzepte sind dadurch gekennzeichnet, daß mehr als ein Blattknten psitiv markiert ist. Das bedeutet, es gibt Beispiele mit unterschiedlichen Merkmalswerten, die zum selben Knzept gehören. Iteratives Vrgehen. Zunächst wird nur eine kleine Teilmenge an Beispielen ausgewählt. Der damit knstruierte Entscheidungsbaum wird mit den übrigen Beispieldaten getestet. Falls dabei Beispiele falsch klassifiziert werden, wird die Generierung des Baums mit einer größeren Datenmenge wiederhlt. Häufig kmmt man damit schneller zu einer Lösung. Einf. in die KI 12 28