Klassische Klassifikationsalgorithmen
|
|
- Markus Weiss
- vor 5 Jahren
- Abrufe
Transkript
1 Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO UE SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 Institut für Grundlagen der Informationsverarbeitung TU Graz Inffeldgasse 16b/1
2 Lehrveranstaltungsübersicht IGI Kapitel 1 Grundbegriffe des maschinellen Lernens Kapitel 2 Neuronale Netze Kapitel 3 Klassische Klassifikationsalgorithmen Kapitel 4 Modellselektion Kapitel 5 Aussagenlogik 2
3 Plan für heute: Kapitel 3 Welchen Lernalgorithmus gibt es für veränderliche Lerndaten? Welchen Lernalgorithmus gibt es für nominale Attribute? Was ist state-of-the-art bei Klassifikation ohne Vorwissen? 3
4 Anwendungsbereiche Voraussetzungen: Abstand zwischen Lernbeispielen ist definiert Beispiele: Hanschrifterkennung Satellitenbilderkennung EKG Klassifikation 4
5 Veränderliche Lerndaten Man möchte für schnell wachsende Datenmenge (Lernbeispiele) nicht fortlaufend neue Klassifikatoren trainieren. Beispiel: 3 Klassenproblem mit 200 Datenpunkte und 2 Attributen. 5
6 Grundidee Die Hypothese wird für jede Vorhersage neu erzeugt. Alle Trainingsdaten werden gespeichert Testbeispiele werden entsprechen der Klasse des nächstgelegenen Trainingsbeispiels klassifiziert. Voronoi Diagramm Voronoi Diagramm Entscheidungsgrenze 6
7 K-Nearest-Neighbor Algorithmus Wählt den häufigsten Zielfunktionswert der k nächstliegenden Trainingsbeispiele. Der Parameter k hat Einfluss auf Vorhersagen für neue Testbeispiele. k=1 k=3 k = 31 3 Klassenproblem: 200 Datenpunkte (2 Attribute) 7
8 Generalisierung Je weniger Nachbarn k, desto komplexer wird der Klassifikator. Je mehr Nachbarn k, desto einfacher wird der Klassifikator. Underfitting: Hypothesenklasse ist nicht ausdrucksstark genug Wahrer Fehler Optimale Komplexität, i.e. k Trainingsfehler Overfitting Hypothesenklasse ist zu komplex Komplexität (e.g. 100/k) Erinnerung: Man spricht von overfitting, wenn error P H error L H 8
9 Vor- und Nachteile Vorteile: Die Komplexität der Hypothese wird automatisch an die Komplexität der Trainingsmenge angepasst. Es können laufend weitere Beispiele zur Hypothese hinzugefügt werden. Nachteile: Falls einige der Attribute in Wirklichkeit irrelevant sind für die Klassifikation, so schwächen sie die Leistung von diesem Lernalgorithmus (curse of dimensionality). Die numerischen Attribute müssen vorher vom Benutzer geeignet skaliert werden. 9
10 Auswahlkriterien für Lernalgorithmen Qualität des Lernalgorithmus (siehe Kapitel 1) Gute Performance bei vielen Trainingsbeispielen. Benötigte Rechenzeit beim Trainieren und Testen. Benötigt keine Zeit um zu Lernen. Testen dauert bei vielen Trainingsbeispielen sehr lange. Speicherbedarf Hoch (Speicherung der Trainingsdaten) Intuitive Interpretierbarkeit Gut (Density estimation bei Klassifikation / Mittelwert bei Regression) 10
11 Kapitel 3 Welchen Lernalgorithmus gibt es für nominale Attribute? 11
12 Anwendungsbereiche Voraussetzungen: Zielfunktion ist diskretwertig Beispiele: Medizinische Diagnosen Kreditrisikoanalyse Modellierung von Präferenzen bei Zeitplanerstellungen 12
13 Was tun bei nominalen Attributen? Beispiel: Wetterdatensatz 13
14 Grundidee Einzelne Attribute werde sequentiell getestet. 14
15 Baum (Graphentheorie) Ein Baum ist ein endlicher Graph mit den Eigenschaften: 1. Es gibt genau einen Knoten, in dem keine Kante endet (die Wurzel ). 2. In jedem von der Wurzel verschiedenen Knoten endet genau eine Kante 3. Jeder Knoten ist von der Wurzel auf genau einem Pfad erreichbar. 15
16 Entscheidungsbaum Ein Entscheidungsbaum ist ein endlicher Graph: Jeder Knoten testet ein Attribute Jeder Zweig korrespondiert zu einem Attributwert Jedes Blatt (Knoten ohne ausgehende Kanten) ordnet eine Klasse zu 16
17 Reellwertige Attribute Es werden diskrete Attribute erzeugt um reellwertige zu testen: 17
18 Entscheidungsgrenzen Im Falle reellwertiger Attribute wird der input Raum durch achsenparallele Entscheidunsgrenzen partitioniert. x1 AB CDE x2 A x2 B CD E x1 C D 2 dimensional 18
19 Entscheidungsgrenzen Im Falle reellwertiger Attribute wird der input Raum durch achsenparallele Entscheidunsgrenzen partitioniert. 2 dimensional 3 dimensional 19
20 Wie wird gelernt? Schleife: 1. Wähle das Beste Entscheidungsattribut A für den nächsten Knoten 2. Für jeden Wert von A erzeuge einen neuen Abkömmlingsknoten 3. Ordne die Trainingsdaten den Abkömmlingsknoten zu 4. Wenn die Trainingsdaten fehlerfrei klassifiziert werden, dann STOPPE. Sonst iteriere über Abkömmlingsknoten ( 1.). 20
21 Wie wird gelernt? Welches Attribut ist das Beste. x2? x1? 21
22 Welches Attribut wird abgefragt? Informal: Wir wählen jenes Attribut, welches die meiste Information über die Klassenzugehörigkeit der Trainingsbeispiele enthält. Formal: Klasse y { 1, 1} H[y] Mittlerer Informationsgehalt der Zufallsvariable y 22
23 Informationsgehalt einer Zufallsvar. Für eine Zufallsvariable y, welche mit Wahrscheinlichkeit P(y) aufritt. Information: h y log2 P y (positive Zahl) 23
24 Entropie Entropie ist der mittlere Betrag des Informationsgehalts der Zufallsvariable y H [ y ] y P y h y = y P y log 2 P y 24
25 Beispiel: Binäre Klassifikation Für eine Zufallsvariable mit 2 Zuständen wie bei Klassifikation liegt der Wert der Entropie zwischen 0 und 1 (Bit). H [ y] P y= 1 25
26 Welches Attribut wird abgefragt? Die Entropie jeder Teilmenge soll möglichst klein sein. Gesamtmenge L Teilmenge L1 P 1 = 21/ 26 P 1 = 5/26 P 1 = 8/38 P 1 = 30/38 Teilmenge L2 H [ Li ] = P 1 log 2 P 1 P 1 log 2 P 1 26
27 Beispiel Welches Attribut soll ausgewählt werden? L :[ 9, 5 ] H [ L] = L :[ 9, 5 ] H [ L] = L 1 : [ 3, 4 ] H [ L1 ] = Gain L, humidity L 2 :[ 6, 1 ] H [ L 2 ] = L 1 :[ 6, 2 ] H [ L1 ] = L 2 :[ 3, 3 ] H [ L2 ] = 1 Gain L, wind 27
28 Welches Attribut soll hier ausgewählt werden? L sunny L sunny L sunny L sunny 28
29 Suche im Hypothesenraum 29
30 Induktiver Bias Die Hypothesenklasse besteht aus allen möglichen Funktionen H : X Y Unbiased? Nein Kurze Entscheidungsbäume mit hohem information gain nahe der Wurzel werden bevorzugt. 2. Entspricht Occam's razor: Bevorzuge kurze Hypothesen, welche zu den Daten passen. 30
31 Einfache Interpretation Umwandlung in Regeln: 31
32 Overfitting Beispiel: Betrachte ein noisy Trainingsbeispiel #15: Temperature Cool Mild Hot Yes Yes No 32
33 Vermeidung von overfitting Ansatz: Grösse des Entscheidungsbaumes kürzen: Wachstum des vollständigen Baumes mit anschließendem post-pruning Entscheidungskriterium ob gekürzt wird: Messen der performance auf unabhängigen Validierungsdaten. 33
34 Lernphasen Trainingsdaten: Dienen zur Auswahl der Hypothese aus einer Hypothesenklasse H durch einen Lernalgorithmus. Testdaten: Dienen zur Betimmung der Qualität der ausgewählten Hypothese durch ein Fehlerkriterium (Generalisierung). Validierungdaten: Dienen zur Auswahl eines Modells (Modellselektion) Trainingsdaten Testdaten Validierungsdaten = Ø 34
35 Validierungsdaten In der Praxis schätzte man den wahren Fehler mittels Validierungsdaten ab, und wählt die Hypotheseklasse für welche man den geringsten Fehler erhält. Fehler auf den Validierungsdaten Wahl der Komplexität Trainingsfehler Komplexität 35
36 Anwendung von post-pruning Schritte bis pruning den Fehler auf den Validierungsdaten vergrößert: 1. Evaluiere die Auswirkung des prunens jedes einzelnen Knotens auf den Fehler der Validierungsdaten. 2. Gierig ersetze den Knoten, welcher den Fehler auf den Validierungsdaten am meisten verringert. 36
37 Fehler Beispiel für post-pruning val. Anzahl der Knoten 37
38 Probleme mit post-pruning Problem: Gain wählt Attribut mit vielen Werten (z.b. Day) 38
39 Versionen von Entscheidungbäumen ID3 Diskrete Attribute, keine fehlenden Attribute Information Gain als Qualitätsmaß. C4.5 Erweiterung von ID3. Information GainRatio als Qualitätsmaß. Fehlenden Attribute Numerische und reellwertige Attribute Pruning des Entscheidungsbaumes 39
40 Vor- und Nachteile Vorteile: Die Komplexität der Hypothese wird automatisch an die Komplexität der Trainingsmenge angepasst (Pruning). Man bekommt Nebeninformationen, welche Attribute am wichtigsten sind für die Klassifikationsaufgabe (feature selection). Gute Interpretierbarkeit des gelernten Entscheidungsbaumes. Nachteile: Das Pruning ist oft nicht radikal genug. 40
41 Auswahlkriterien für Lernalgorithmen Qualität des Lernalgorithmus (siehe Kapitel 1) Kann nur bei diskretwertigen Zielfunktionen angewendet werden Verglichen mit SVM und backprop schlechtere performance. Benötigte Rechenzeit beim Trainieren und Testen Benötigt wenig Rechenzeit um zu Lernen und Testen Speicherbedarf Gering. Intuitive Interpretierbarkeit Sehr gut 41
42 Kapitel 3 Was ist state-of-the-art bei Klassifikation ohne Vorwissen? 42
43 Wiederholung Lineare Modelle lösen nicht alle Probleme Z.B. XOR Problem y = sign w T x =sign w 0 w 1 x 1... w d x d Mindestens ein Punkt wird falsch klassifiziert. 43
44 Grundlegende Ideen von SVM 1. Nichtlineare Projektion. 2. Maximum margin Hyperebene. 3. Rechnerische Effizienz durch den kernel Trick. 44
45 Nichtlineare Klassifikatoren Idee 1: Abbildung in den feature Raum x = 1, 2 x1, 2 x 2, 2 x 1 x 2, x 21, x 2,2 f = -1 f = +1 f = +1 margin= 2 f =0 f = +1 f =0 f = -1 f = -1 45
46 Erzeugte Hypothesen Lineare Separierung im feature - Raum Nichtlineare Separierung im originalen input - Raum 46
47 Grundlegende Ideen von SVM 1. Nichtlineare Projektion. 2. Maximum margin Hyperebene. 3. Rechnerische Effizienz durch den kernel Trick. 47
48 Klassifikation Linearer Klassifikator y w, x = sign w 0 w T1 x 1 w 1, x 1 ℝ D 1 Es gibt viele Gewichtsvektoren mit dem selben Klassifikationsfehler. x2 x1 48
49 Unterscheidende Klassifikation Idee 2: Wir erwarten, dass wir einen besseren Klassifikator finden, welcher robuster hinsichtlich noise ist, wenn wir verlangen, dass der margin möglichst groß ist. Margin: Abstand zwischen Trainingsbeispielen und der Klassifikationsebene des linearen Klassifikators. 49
50 Support Vektoren maximaler margin Support Vektoren 50
51 Maximum margin für XOR Problem Abbildung in den feature Raum x = 1, 2 x1, 2 x 2, 2 x 1 x 2, x 21, x 2,2 f = -1 f = +1 f = +1 margin= 2 f =0 f = +1 f =0 f = -1 f = -1 51
52 Erzeugte Hypothesen RBF kernel: Allgemeim für alle kernel Funktionen gilt: SV müssen nicht nahe an den Entscheidungsgrenzen im input Raum sein, sie müssen nur nahe an den Entscheidungsgrenzen im feature Raum sein. 52
53 Grundlegende Ideen von SVM 1. Nichtlineare Projektion. 2. Maximum margin Hyperebene. 3. Rechnerische Effizienz durch den kernel Trick. 53
54 Kernels Berechnung: Maximierungsproblem in der sogenannten dualen Repräsentation 1 l T y y x i=1 i 2 i, j=1 i j i j 1 i x 1 j l wobei 0 i C und x T1 i x 1 j i i y i = 0. T x 1 i x 1 j K x 1i, x 1 j Die kernel-funktion K berechnet das Skalarprodukt im feature Raum. 54
55 Kernels Idee 3: Das Skalarprodukt kann berechnet werden ohne explizit feature Vektoren im feature Φ-Raum zu konstruieren. 55
56 Overfitting Die Dimensionalität des feature Raumes bestimmt die Anzahl der zu bestimmenden Parameter. Warum kann dieser Lernalgorithmus generalisieren? 56
57 Veranschaulichung: Cross validation Für SVM hängt der leave-one-out cross-validation error nicht von der Dimensionalität des feature Raumes ab, sondern von der Anzahl der SV Leave one out CV error Anz. der support Vektoren Anz. der Trainingsbeispiele 57
58 Zusammenfassung von SVM 1. Nichtlineare Projektion. 2. Maximum margin Hyperebene. 3. Rechnerische Effizienz durch den kernel Trick. 58
59 Auswahlkriterien für Lernalgorithmen Qualität des Lernalgorithmus (siehe Kapitel 1) Generell sehr gute Performance Zur Verfügung stehende Rechenzeit beim Trainieren und Testen, sowie Benötigt sehr viel Rechenzeit um zu lernen Benötigt wenig Rechenzeit um zu testen Speicherbedarf Gering. Intuitive Interpretierbarkeit Sehr schlecht 59
Klassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrEinführung i.d. Wissensverarbeitung
Einführung in die Wissensverarbeitung 2 VO 708.560 + 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für Grundlagen der
MehrEinführung i.d. Wissensverarbeitung
Einführung in die Wissensverarbeitung 2 VO 708.560 + 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für Grundlagen der
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrErstes Mathe-Tutorium am Themen können gewählt werden unter:
Mathe-Tutorium Erstes Mathe-Tutorium am 07.05. Themen können gewählt werden unter: https://docs.google.com/forms/d/1lyfgke7skvql cgzspjt4mkirnrgnrfpkkn3j2vqos/iewform 1 Uniersität Potsdam Institut für
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrEntscheidungsbaum-Lernen: Übersicht
Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume als Repräsentationsformalismus Semantik: Klassifikation Lernen von Entscheidungsbäumen vollst. Suche vs. TDIDT Tests, Ausdrucksfähigkeit Maße: Information
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
Mehr3.3 Nächste-Nachbarn-Klassifikatoren
3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 6. Übungsblatt Aufgabe 1 Gegeben sei eine Beispielmenge mit folgenden Eigenschaften: Jedes Beispiel ist durch 10 nominale Attribute A 1,...,
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
MehrEntscheidungsbäume. Minh-Khanh Do Erlangen,
Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrInstanzenbasiertes Lernen: Übersicht
Instanzenbasiertes Lernen: Übersicht k-nearest Neighbor Lokal gewichtete Regression Fallbasiertes Schließen Lernen: Lazy oder Eager Teil 11: IBL (V. 1.0) 1 c G. Grieser Instanzenbasiertes Lernen Idee:
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen
MehrValidation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation
Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade/Niels Landwehr Jules Rasetaharison, Tobias Scheffer Entscheidungsbäume Eine von vielen Anwendungen:
MehrMustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
Mehr3.5 Entscheidungsbaum- Klassifikatoren. Motivation. finden explizites Wissen Entscheidungsbäume sind für die meisten Benutzer verständlich
3.5 Entscheidungsbaum- Klassifikatoren Motivation ID Alter Autotyp Risiko 1 23 Familie hoch 2 17 Sport hoch 3 43 Sport hoch 4 68 Familie niedrig 5 32 LKW niedrig Autotyp = LKW LKW Risikoklasse = niedrig
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
MehrID3 und Apriori im Vergleich
ID3 und Apriori im Vergleich Lassen sich bei der Klassifikation mittels Apriori bessere Ergebnisse als durch ID3 erzielen? Sebastian Boldt, Christian Schulz, Marc Thielbeer KURZFASSUNG Das folgende Dokument
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrDecision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume
Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer *Entscheidungsbäume Gliederung 1. Einführung 2. Induktion 3. Beispiel 4. Fazit Einführung 1. Einführung a. Was sind Decision Trees?
MehrData Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt 9. Februar 2016 1 Aufgabe 1: RelieF (1) Gegeben sind folgende 12 Beispiele der Wetter-Daten: ID outlook
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
MehrÜbersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrFragen aus dem Wissensquiz
und Data-Mining Prof. Dr. Tobias Scheffer SS 2004 Fragen aus dem Wissensquiz Marko Pilop pilop@informatik.hu-berlin.de http://www.informatik.hu-berlin.de/ pilop 2004-07-20 (v0.70 30. Juli 2004) Humboldt-Universität
MehrÜbersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrEntscheidungsbäume. Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Silvia Makowski Tobias Scheffer Entscheidungsbäume Eine von vielen
MehrEinführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele
Einführung Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Direkte Programmierung eines intelligenten Agenten nicht möglich (bisher) Daher benötigt:
MehrVortragsthema. Thema: Klassifikation. Klassifikation. OS Data Mining SS10 Madeleine Weiand 1
Vortragsthema Klassifikation OS Data Mining SS0 Madeleine Weiand Agenda Agenda I III Begriff Klassifikation Abgrenzung Anforderungen Anwendungsgebiete Dimensionsreduktion Umsetzung in Software Vergleich
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
Mehr5.4 Nächste-Nachbarn-Klassifikatoren
5.4 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfacher Nächster-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrDecision-Tree-Klassifikator
D3kjd3Di38lk323nnm Decision-Tree-Klassifikator Decision Trees haben einige Vorteile gegenüber den beiden schon beschriebenen Klassifikationsmethoden. Man benötigt in der Regel keine so aufwendige Vorverarbeitung
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Dominik Lahmann Tobias Scheffer Entscheidungsbäume
MehrHypothesenbewertungen: Übersicht
Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung
Mehr4 Induktion von Regeln
4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung
MehrÜbersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)
Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen
MehrNaive Bayes für Regressionsprobleme
Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt
MehrKapitel ML: III. III. Entscheidungsbäume. Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning
Kapitel ML: III III. Entscheidungsbäume Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning ML: III-1 Decision Trees c STEIN/LETTMANN 2005-2011 Spezifikation von Klassifikationsproblemen
MehrKapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation
Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c
Mehr4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum
4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrMaschinelles Lernen Vorlesung
Maschinelles Lernen Vorlesung SVM Kernfunktionen, Regularisierung Katharina Morik 15.11.2011 1 von 39 Gliederung 1 Weich trennende SVM 2 Kernfunktionen 3 Bias und Varianz bei SVM 2 von 39 SVM mit Ausnahmen
MehrEinführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen
Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Stand der Folien: 14. Februar 2013 Einführung Direkte Programmierung eines intelligenten Agenten nicht
MehrMaschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity
MehrProjekt Maschinelles Lernen WS 06/07
Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb
MehrRidge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
MehrKapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017
10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrMaschinelles Lernen: Symbolische Ansätze
Klausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz Technische Universität Darmstadt Wintersemester 2014/15 Termin: 17. 2. 2015 Name: Vorname: Matrikelnummer: Fachrichtung:
MehrModellierung. Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest. Wolfgang Konen Fachhochschule Köln Oktober 2007.
Modellierung Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest Wolfgang Konen Fachhochschule Köln Oktober 2007 W. Konen DMC WS2007 Seite - 1 W. Konen DMC WS2007 Seite - 2 Inhalt Typen der Modellierung
MehrKapitel 5: Ensemble Techniken
Ludwig Maximilians Universität München Institut für Informatik Lehr- und Forschungseinheit für Datenbanksysteme Skript zur Vorlesung Knowledge Discovery in Databases II im Sommersemester 2009 Kapitel 5:
MehrNeuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse Neuronale Netze 1 Überwachtes
MehrKapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading
Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen
MehrEntscheidungsbaum-Lernen: Übersicht
Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume Repräsentationsformalismus Tests Semantik: Klassifikation Ausdrucksfähigkeit Lernen von Entscheidungsbäumen Szenario vollst. Suche vs. TDIDT Maße:
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrModell Komplexität und Generalisierung
Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung
MehrLineare Klassifikatoren
Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrFragenkatalog zur Vorlesung "Grundlagen des Data Mining" (WS 2006/07)
Fragenkatalog zur Vorlesung "Grundlagen des Data Mining" (WS 2006/07) 1. Grenzen Sie die Begriffe "Daten" und "Wissen" mit je 3 charakteristischen Eigenschaften gegeander ab. 2. Nennen Sie vier verschiedene
MehrText-Mining: Klassifikation I - Naive Bayes vs. Rocchio
Text-Mining: Klassifikation I - Naive Bayes vs. Rocchio Claes Neuefeind Fabian Steeg 17. Juni 2010 Klassifikation im Text-Mining Klassifikation Textkategorisierung Naive Bayes Beispielrechnung Rocchio
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrMaschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
MehrRückblick. Entscheidungsunterstützende Systeme / Kapitel 4: Klassifikation
Rückblick k-nächste Nachbarn als distanzbasiertes Verfahren zur Klassifikation benötigt sinnvolles Distanzmaß und weist vorher unbekanntem Datenpunkt dann die häufigste Klasse seiner k nächsten Nachbarn
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrReranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
Mehr