Überwachtes Lernen I: Klassifikation und Regression
|
|
- Werner Neumann
- vor 7 Jahren
- Abrufe
Transkript
1 Überwachtes Lernen I: Klassifikation und Regression Praktikum: Data Warehousing und Data Mining
2 Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung) Unter Benutzung beliebiger bekannter Attributwerte Institut für Programmstrukturen und Datenorganisation (IPD) Beispiele: Klassifikation von Spam Vorhersage von Kundenverhalten wie Kündigungen (Churn) Vorhersage von Kreditwürdigkeit Beurteilung von industriellen Gütern 2
3 Regressionsprobleme Idee Bestimmung eines unbekannten numerischen Attributwertes (ordinale und kategorische Vorhersagen durch Schwellwertsetzung) Unter Benutzung beliebiger bekannter Attributwerte Institut für Programmstrukturen und Datenorganisation (IPD) Beispiele: Vorhersage von Kundenverhalten wie Zeit bis Kündigung Vorhersage von Kosten, Aufwand o.ä. Voraussage von Verkaufszahlen, z.b. von Büchern 3
4 Prozess 1: Klassifikationsmodell lernen Trainings- Daten Klassifikator Lernen NAME RANK YEARS TENURED Mike Assistant Prof 3 no Mary Assistant Prof 7 yes Bill Professor 2 yes Jim Associate Prof 7 yes Dave Assistant Prof 6 no Anne Associate Prof 3 no Klassifikator IF rank = Professor OR years > 6 THEN tenured = yes 4
5 Prozess 2: Vorhersagen mit dem Modell Klassifikator Test- Daten NAME RANK YEARS TENURED Tom Assistant Prof 2 no Merlisa Associate Prof 7 no George Professor 5 yes Joseph Assistant Prof 7 yes Neue Daten (Jeff, Professor, 4) Tenured? 5
6 Überwachtes vs. Unüberwachtes Lernen Überwachtes Lernen (Klassifikation, Regression) Bei den Trainingsdaten ist das Vorhersageattribut bekannt Die Zielgrößen neuer Datensätze werden auf Basis des gelernten Modells vorhergesagt Unüberwachtes Lernen (Clusteranalyse) Die Vorhersageattribute (Klassen bzw. hier Cluster) des Lerndatensatzes sind unbekannt Ziel ist es, aus Werten und Beobachtungen des Datensatzes eine Clustereinteilung zu finden 6
7 Techniken zum überwachten Lernen Technik Klassifikation Regression k-nearest Neighbour X X Statistische Techniken (Lineare Regression etc.) Entscheidungsbäume Regressionsbäume (X) X Neuronale Netze X X Support Vektor Maschinen (SVMs) X X Regelbasierte Techniken X X Naive Bayes Assoziationsregeln zur Klassifikation (X) X X X X 7
8 Zum Einstieg: k-nearest Neighbour Gegeben: Lerndatensatz L Vorgehen zur Klassifikation eines Tupels t: Menge S: die k nächsten Nachbarn von t in L Klassifikation von t durch Klasse mit meisten Elementen in S Als Regressionsverfahren: Vorhersage ist Mittelwert der Tupel in S Anmerkungen: Nähe über Distanzmaß (z.b. euklidische Distanz) Kein Lernen im engeren Sinn Vorhersage rechenaufwändig für große L Einsatz nur sinnvoll bei wenigen, numerischen Attributen 8
9 Statistische Techniken zur Regression
10 Einfache Lineare Regression Vorhersage der Zielvariable y durch eine Prediktorvariable x Gegeben: Lerndatensatz D = {(x 1, y 1 ), (x 2, y 2 ),, (x n, y n )}, n = D Vermutung eines linearen Zusammenhangs Gesucht: Gerade y = w 0 + w 1 x Bestimmung von w 0, w 1 (Regressionskoeffizienten) w 0 = 23,6 w 1 = 03,5 y = 23,6 + 3,5 x Lerndatensatz D: 10
11 Berechnung der Regressionskoeffizienten Zunächst: Bestimmung des Fehlers als Summe der quadratischen Abweichungen E= Σ i (y i (w 0 + w 1 x i )) 2 Aus der notwendigen Bedingung für ein Minimum der Fehlfunktion lassen sich unter Verwendung von partiellen Ableitungen w 0 und w 1 berechnen: w D ( x i i= 1 = D 1 i= 1 x)( y ( x i i x) 2 y) w 0 = y w x 1 x, y: y Durchschnitt aller x 1, x 2,, x n bzw. aller y 1, y 2,, y n (Rechenbeispiel: S. Data-Mining-Buch von J. Han, M. Kamber) 11
12 Lineare Regression Fehlermaße Üblich ist: Mittlerer quadratischer Abstand in y-richtung Andere sinnvolle Fehlermaße: Mittlerer absoluter Abstand in y-richtung Mittlerer euklidischer Abstand Maximaler absoluter/quadratischer Abstand in y-richtung Maximaler euklidischer Abstand Diese Maße können jedoch nicht verwendet werden: Betragsfunktion (absoluter Abstand) und Maximum sind nicht überall differenzierbar. Die Ableitung beim euklidischen Abstand führt zu einem nichtlinearen Gleichungssystem; ist nicht analytisch lösbar. 12
13 Multivariate Lineare Regression Typischerweise steht nicht nur eine Prediktorvariable x zur Verfügung, sondern mehrere (p) : Vektor X i := x i,1, x i,2,, x i,p Lerndatensatz: D = {(X 1, y 1 ), (X 2, y 2 ),, (X n, y n )} Hyper-Ebene: y = w 0 + w 1 x 1 + w 2 x w p x p Die Methode zur Minimierung der Fehler-Quadrate kann übertragen werden: Es entsteht ein lineares Gleichungssystem. Lösbar mit linearer Algebra (Matrizen). Lösung mit numerischen Methoden oft effizienter. 13
14 Lineare Regression Bewertung Eigenschaften Aufwand zum Lösen der Gleichungen: O(p³) Koeffizienten sind eventuell interpretierbar. Vorteile Relativ simples Modell: p-dimensionale Hyperebene bei p Prediktorvariablen Dient als Baseline zum Vergleich von Regressionstechniken. Nachteile Gleichungen sind eventuell nicht lösbar, wenn Prediktorvariablen (nahezu) linear abhängig voneinander sind. Alle Prediktorvariablen werden betrachtet, auch irrelevante. Anfällig für Outlier. (Ignorieren von Datenpunkten gefährlich!) Nicht alle Probleme sind linear 14
15 Nichtlineare Regression Einige nichtlineare Probleme können als polynomielle Funktion modelliert werden. Polynomielle (u.a.) Funktionen können in lineare Regressionsmodelle transformiert werden, z.b.: y = w 0 + w 1 x + w 2 x 2 + w 3 x 3 wird gemappt auf: y = w 0 + w 1 x + w 2 x 2 + w 3 x 3 Die Methode zur Minimierung der Fehler-Quadrate mit Ableitungstechniken kann prinzipiell auf beliebige Funktionen übertragen werden. Eventuell sehr hoher Rechenaufwand, aber oft nicht lösbar. Hintergrundwissen kann helfen, einen Term zu finden. 15
16 Lokale Lineare Regression Idee: Mehrere einfache Regressionsfunktionen (hier Geraden) für verschiedene Wertebereiche von x Problem: Brüche an Wertebereichsgrenzen Eine Lösung: Splines glätten die Übergänge Gut geeignet bei wenigen Prädiktorvariablen. Bestimmte Regressionsbäuzme greiften die Idee lokale Regression auf y y x x 16
17 Weitere nichtlineare Verfahren Oft ist eine numerische Parameter-Bestimmung aus partiellen Ableitungen nicht möglich: Parameter gehen nichtlinear in die Regressionsfunktion ein. Ein alternatives Fehlermaß wird verwendet. Lösungsansatz: Systematisches Trial and Error 1. Aufstellen einer (beliebigen) Regressionsfunktion. 2. Suche nach geeigneten Parametern: Random Search Hillclimbing Varianten um lokale Minima zu verhindern Genetische Algorithmen 17
18 Generalisierung vs. Overfitting y Training data y Too simple? x x Too complex? About right? y y x x 18
19 Entscheidungsbäume
20 Klassifikation - Entscheidungsbäume Vorgehen Aufbau eines Baums Knoten entspricht Entscheidungskriterium Blatt entspricht Entscheidung Vorteile Ergebnis leicht interpretierbar Übersetzbar in Regelsystem nein nicht kaufen Zulassung hoch Alter ja Verbrauch niedrig kaufen Diverse Verfahren ID3 / C4.5 / C5.0 / J48 C&RT Quest Chaid alt nicht kaufen modern kaufen Eine Regel (von mehreren): Wenn Zulassung vorhanden und Verbrauch niedrig, dann kaufen. 20
21 Vorgehen bei der Konstruktion 01 Alle Datentupel im Wurzelknoten 02 IF Stoppkriterium erreicht THEN 03 Aktueller Knoten wird Blattknoten mit Majoritätsklasse 04 ELSE 05 Suche geeignetes Entscheidungssattribut (Splitattribut) 06 Wende Algorithmus rekursiv auf Teilmengen an Anschließend: Beschneide Baum (Pruning) Existierende Algorithmen unterscheiden sich in der Wahl des Stoppkriteriums der Art des Splits dem Vorgehen zur Wahl des Splitattributs dem Vorgehen zum Splitten eines Attributs der Wahl des Pruningverfahrens 21
22 Wahl des Stoppkriteriums Natürliche Stoppkriterien Institut für Programmstrukturen und Datenorganisation (IPD) Knoten enthält (fast) nur Tupel einer Klasse Alle Tupel sind identisch bis auf die Klasse Alle Klassifikationsattribute ausgeschöpft Weitere Kriterien Minimale Tupelzahl je Knoten Minimaler Anteil falsch klassifizierter Tupel Maximale Baumtiefe Maximale Knotenanzahl 22
23 Art des Splits Diskrete vs. kontinuierliche Attribute Diskret Ein Knoten pro Attributwert Kontinuierlich: Ein Knoten pro Attributintervall blau < 5 Augenfarbe Alter Binäre vs. n-äre Bäume Zwei oder mehrere Ausgangskanten rot 5 10 grün > 10 Frage: Wie erreicht man binäre Bäume mit kategorischen Attributen? Frage: Wie gelangt man an Attributintervalle? 23
24 Wahl des Splitattributs Beispiel (binäres Attribut) Objektmenge: Verschiedene Splits möglich: Split A: Linke Seite : 17% Fehler Rechte Seite : 50% Fehler Split B: Linke Seite : 22% Fehler Rechte Seite : 33% Fehler Split C Institut für Programmstrukturen und Datenorganisation (IPD) Welcher Split ist vorzuziehen? Festlegung eines Bewertungsmaßes 24
25 Prinzip Informationsgewinn Maximierung des Informationsgewinns Vorgehen Basiert auf Shannon-Entropie H = - n i=1 p i log 2 p i Informationsgewinn I gain (C,A) = H(C) H(C A) I gain (C,A) = - C i=1 p i log 2 p i A j=1 p j (- C i=1 p i j log 2 p i j ) H(C) Entropie der Klassenverteilung (mit C Klassenattribut) H(C A) Erwartete Entropie der Klassenverteilung, wenn Attribut A bekannt 25
26 Informationsgewinn - Beispiel Berechnung des Informationsgewinns Allgemein: I gain (C,A) = - C i=1 p i log 2 p i A j=1 p j (- C i=1 p i j log 2 p i j ) H(C) = - (4/12 * log 2 (4/12) + 8/12 * log 2 (8/12)) = 0,918 Split A: I gain (C,A) = 0,918 (6/12 * (-1) * (1/6 * log 2 (1/6) + 5/6 * log 2 (5/6)) I gain (C,A) = + 6/12 * (-1) * (3/6 * log 2 (3/6) + 3/6 * log 2 (3/6))) I gain (C,A) = 0,918 0,325 0,500 I gain (C,A) = 0,918 0,825 = 0,093 Split B: I gain (C,B) = 0,918 (9/12 * (-1) * (2/9 * log 2 (2/9) + 7/9 * log 2 (7/9)) I gain (C,A) = + 3/12 * (-1) * (1/3 * log 2 (1/3) + 2/3 * log 2 (2/3))) I gain (C,A) = 0,918 0,573 0,230 I gain (C,A) = 0,918 0,803 = 0,115 Hier würde B bevorzugt 26
27 Gini Index Prinzip Minimierung der Heterogenität Institut für Programmstrukturen und Datenorganisation (IPD) Vorgehen Wahrscheinlichkeitsmaß, bei Stichprobe Datentupel aus 2 unterschiedlichen Klassen zu erhalten: Gini = 1 p(0)² p(1)² Minimum = 0,0 alle Objekte aus einer Klasse Maximale Homogenität Maximum = 0,5 Objekte zweier Klassen gleich häufig Maximale Heterogenität 27
28 Gini Index - Beispiel Berechnung der Heterogenität Split A: Linke Seite = 1 - (1/6) 2 - (5/6) 2 = 0,278 Rechte Seite = 1 - (3/6) 2 - (3/6) 2 = 0,500 Split B: Linke Seite = 1 - (2/9) 2 - (7/9) 2 = 0,346 Rechte Seite = 1 - (1/3) 2 - (2/3) 2 = 0,444 Einfacher Durchschnitt A: (0, ,500) / 2 = 0,389 B: (0, ,444) / 2 = 0,395 Hier würde A bevorzugt Institut für Programmstrukturen und Datenorganisation (IPD) 28
29 Weitere Bewertungsmaße Chi-Quadrat-Test Institut für Programmstrukturen und Datenorganisation (IPD) Maß für die Abhängigkeit zwischen Merkmal und Zielgröße Auswahl des Merkmals mit dem höchsten Chi- Quadrat-Wert (= stärkste Abhängigkeit) Minimale Beschreibungslänge (MDL) Ähnlich Informationsgewinn Zusätzlich Strafe für zunehmende Komplexität des Baums 29
30 Splitten eines Attributs Nicht alle Attribute sind binär (Binärbäume) bzw. haben genau n Attribute (n-äre Bäume). Vorgehen kategorische Attribute: Es werden Bewertungsmaße für alle Aufteilungen der Klassen in 2 bzw. n Mengen berechnet. Z.B. {blau, rot, grün} bei Binärbäumen: {{blau, rot}, grün}, {blau, {rot, grün}} und {{blau, grün}, rot} Vorgehen numerische Attribute: 1. Auf- oder absteigendes Sortieren der Attribute 2. Setzen von allen Kombinationen von 1 bzw. (n-1) Splits Alternativ: Diskretisieren des Attributs vor dem eigentlichen Lernprozess (z.b. CHAID) 30
31 Pruning - Motivation Institut für Programmstrukturen und Datenorganisation (IPD) zu klein gut (generalisierend) Overfitting Achtung: Die optimale Baumgröße ist bei jedem Datensatz unterschiedlich! 31
32 Pruningverfahren Institut für Programmstrukturen und Datenorganisation (IPD) Gründe für Pruning komplexer Bäume Einfachheit / Verständlichkeit Verhinderung von Overfitting / Generalisierungsfähigkeit Pre-Pruning: Stopkriterien bei Baumerstellung Post-Pruning: Nachträgliches Stutzen Subtree Replacement Ersetzen von Entscheidungsknoten durch Blattknoten, wenn Klassifikationsbeitrag gering Optimal: Entscheidung zum Ersetzen mit frischen Daten evaluieren Subtree Raising Verschiebung von Teilbäumen nach oben Insbesondere dann, wenn es Attribute gibt, die einzeln wenig, aber in Kombination sehr stark zur Klassifikation beitragen. Solche Attribute rutschen sonst sehr leicht weit nach unten. 32
33 Regressionsbäume
34 Regressionsbäume und Model Trees Regressionsbäume: Entscheidungsbäume, dessen Blätter anstatt kategorischen Labels numerische Zielgrößen enthalten (z.b. das Mittel aller Lerntupel im Knoten) Model Trees: Variante von Regressionsbäumen, deren Blattknoten je eine (multivariate lineare) Regressionsfunktion für alle Tupel eines Knotens enthalten x 1 <= 7 ja nein 2,7 x 2 >= 2 ja 3,6 x 1 <= 7 ja nein x 2 >= 2 ja nein 3,2 nein 34
35 Regressionsbäume Wie kann man einen Regressionsbaum lernen? Wie Entscheidungsbäume, aber andere Wahl des Splitattributs und angepasstes Pruning. Wahl des Splitattributs welches die Varianz minimiert. welches die Standardabweichung minimiert (M5). welches die stärkste Korrelation mit der Zielvariablen hat, basierend auf dem p-wert des statistischen F-Test (CHAID). welches die Fehlerquadrate minimiert (C&RT). 35
36 Splitattribut-Wahl mit Fehlerquadraten Die Methode der Fehlerquadrate lässt sich auch hier als Fehlermaß R in einem Knoten nutzen: R ist die Summe der quadratischen Fehler von allen Tupeln i im aktuellen Knoten t, geteilt durch die Anzahl der Tupel in t. Die Fehler sind die Differenz des Zielwertes des jeweiligen Tupels y i und dem Mittel der Zielwerte aller dieser Tupel in t. 1 = t i t R ( t) ( y y( t))² Es wird der Split gewählt, der R der beiden Kinder eines Knotens minimiert (bei Binärbäumen wie C&RT). So erhält man Tupel mit ähnlichen Werten in einem Knoten. Entsprechend bei Varianz/Standardabweichung i 36
37 Model Trees Lernen eines Model Trees (hier M5) Lernen des Baums zunächst wie bei Regressionsbäumen. In jedem Knoten wird ein multivariates lineares Regressionsmodell gelernt, auf Basis aller Attribute, die in den darunter liegenden Knoten getestet werden. Die Regressionsmodelle bilden auch die Basis für das anschließende Prunen Vorhersagen mit dem Model Tree (auch M5) Zunächst wie beim Entscheidungsbaum. Das Regressionsmodell des Blattknotens liefert Vorhersage. Vorhersagen sind unstetig, da lokale lineare Regression. Abhilfe: Glätten der Funktion durch Einbeziehung der Vorhersagen aller darüber liegenden Knoten bis zur Wurzel. 37
38 Regressionsbäume Bewertung Eigenschaften Bäume helfen eventuell beim Verständnis des Problems. Model Trees im allgemeinen genauer. Vorteile Oft besser als lineare Regression. Hilfreich bei hochdimensionalen Problemen. Behandlung von kategorischen Variablen möglich. Im allgemeinen recht schnell; bei einzelnen Regressionsfunktionen findet Attributauswahl statt (Model Trees). Nachteile Große Gefahr des Overfittings gegeben. Der ganze Baum mit Regressionsgeraden stellt eine sehr komplexe Funktion dar (Model Trees). 38
39 Evaluationstechniken
40 Sampling bzw. Holdout Institut für Programmstrukturen und Datenorganisation (IPD) Die Leistung eines Klassifikators kann nicht mit dem Lerndatensatz beurteilt werden! Overfitting! Vgl. Motivation Pruning. Deshalb: Unterteilung der Ausgangsdaten in Training Set zum Lernen des Klassifikators (oft zwei Drittel) Test Set zur Evaluation des Klassifikators (oft ein Drittel) Beide Mengen sollten möglichst repräsentativ sein: Stratifikation: Aus jeder Klasse wird ein proportionaler Anteil in das Training- und Test Set übernommen. Eine Unterteilung in Training- und Test Set ist oft nicht möglich, wenn nicht genug Daten zur Verfügung stehen: Ein kleines Test Set ist ggf. nicht mehr repräsentativ. Ein kleines Training Set bietet ggf. zu wenig zum Lernen. 40
41 Klassifikation - Vorgehen Institut für Programmstrukturen und Datenorganisation (IPD) Trainingsdaten Klassifikator lernen Testdaten Klassifikator testen Klassifikationsregeln modell optimiertes Klassifikationsregeln modell Produktivdaten Klassifikator anwenden 41
42 Cross-Validation Unterteilung der Ausgangsdaten in k Partitionen Typischerweise wird k=10 gewählt Eine Partition bildet Test Set k 1 Partitionen bilden Training Set Berechnung und Evaluation von k Klassifikatoren: In k Runden wird jedes Datentupel k-1 mal zum Lernen verwendet und genau ein mal klassifiziert. Stratifizierte Cross-Validation ist in vielen Fällen die zu empfehlende Evaluationstechnik, besonders aber bei kleinen Datensätzen. Achtung: Cross-Validation ist sehr Rechenaufwändig Leave-One-Out ist Spezialfall für k=n 42
43 Evaluationsmasse für Klassifikatoren Konfusions-Matrix Vorhersage Ja Nein Tatsächliche Klasse Ja Nein True Positives (TP) False Positives (FP) False Negatives (FN) True Negatives (TN) accuracy = (TP + TN) / (TP + FN + FP + TN) sensitivity = TP / (TP + FN) specificity = TN / (FP + TN) precision = TP / (TP + FP) lift = precision / P(ja); P(ja) = (TP + FN) / (TP + FN + FP + TN) 43
44 Evaluation von Regressionstechniken Es existieren viele Techniken Data Mining Cup: Die Summe aller Abweichungen (aller 8 Bücher bei allen vorauszusagenden Händlern) von der bekannten Anzahl an Buchverkäufen. 44
45 Quellen Institut für Programmstrukturen und Datenorganisation (IPD) J. Han und M. Kamber: Data Mining: Concepts and Techniques, Morgan Kaufmann, Hand, H. Mannila und P. Smyth: "Principles of Data Mining", MIT Press, T. M. Mitchell: Machine Learning, Mc Graw Hill, 1997 I.H. Witten und E. Frank: "Data Mining - Practical Machine Learning Tools and Techniques", Morgan Kaufmann, D. F. Klawonn: Folien zur Vorlesung Data Mining, Pierre Geurts: Folien zur Vorlesung Stochastic methods. SPSS: Clementine 12.0 Algorithms Guide C. Borgelt: Folien zur Vorlesung Intelligent Data Analysis, Vorlesungsskript verfügbar (120 Seiten): 45
Praktikum Data Warehousing und Data Mining
Klassifikation I Praktikum Data Warehousing und Data Mining Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung) Unter Benutzung beliebiger
MehrÜberwachtes Lernen: Klassifikation und Regression
Überwachtes Lernen: Klassifikation und Regression Praktikum: Data Warehousing und Data Mining Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung)
MehrÜberwachtes Lernen II: Netze und Support-Vektor-Maschinen
Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009
MehrKapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation
Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c
MehrEntscheidungsbäume. Minh-Khanh Do Erlangen,
Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
Mehr3.3 Nächste-Nachbarn-Klassifikatoren
3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
MehrDecision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume
Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer *Entscheidungsbäume Gliederung 1. Einführung 2. Induktion 3. Beispiel 4. Fazit Einführung 1. Einführung a. Was sind Decision Trees?
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrMotivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus
3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
Mehr, Data Mining, 2 VO Sommersemester 2008
Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrInduktion von Entscheidungsbäumen
Induktion von Entscheidungsbäumen Christian Borgelt Institut für Wissens- und Sprachverarbeitung Otto-von-Guericke-Universität Magdeburg Universitätsplatz 2, 39106 Magdeburg E-mail: borgelt@iws.cs.uni-magdeburg.de
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein
MehrUnüberwachtes Lernen: Clusteranalyse und Assoziationsregeln
Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Praktikum: Data Warehousing und Data Mining Clusteranalyse Clusteranalyse Idee Bestimmung von Gruppen ähnlicher Tupel in multidimensionalen Datensätzen.
MehrAnhang B. Regression
Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrNaive Bayes für Regressionsprobleme
Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen
MehrMathias Krüger / Seminar Datamining
Entscheidungsbäume mit SLIQ und SPRINT Mathias Krüger Institut für Informatik FernUniversität Hagen 4.7.2008 / Seminar Datamining Gliederung Einleitung Klassifikationsproblem Entscheidungsbäume SLIQ (
MehrLernen von Entscheidungsbäumen. Volker Tresp Summer 2014
Lernen von Entscheidungsbäumen Volker Tresp Summer 2014 1 Anforderungen an Methoden zum Datamining Schnelle Verarbeitung großer Datenmengen Leichter Umgang mit hochdimensionalen Daten Das Lernergebnis
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrData Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt 9. Februar 2016 1 Aufgabe 1: RelieF (1) Gegeben sind folgende 12 Beispiele der Wetter-Daten: ID outlook
MehrRückblick. Entscheidungsunterstützende Systeme / Kapitel 4: Klassifikation
Rückblick k-nächste Nachbarn als distanzbasiertes Verfahren zur Klassifikation benötigt sinnvolles Distanzmaß und weist vorher unbekanntem Datenpunkt dann die häufigste Klasse seiner k nächsten Nachbarn
MehrMaschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
MehrKlassifikation im Bereich Musik
Klassifikation im Bereich Musik Michael Günnewig 30. Mai 2006 Michael Günnewig 1 30. Mai 2006 Inhaltsverzeichnis 1 Was ist eine Klassifikation? 3 1.1 Arten und Aufbau von Klassifikationen.................
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv
MehrA linear-regression analysis resulted in the following coefficients for the available training data
Machine Learning Name: Vorname: Prof. Dr.-Ing. Klaus Berberich Matrikel: Aufgabe 1 2 3 4 Punkte % % (Bonus) % (Gesamt) Problem 1 (5 Points) A linear-regression analysis resulted in the following coefficients
Mehrfuzzy-entscheidungsbäume
fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25
Mathematische Grundlagen III Evaluation 16 Juli 2011 1/25 Training Set und Test Set Ein fairer Test gibt an, wie gut das Modell im Einsatz ist Resubstitution: Evaluation auf den Trainingsdaten Resubstitution
MehrMethodik der multiplen linearen Regression
Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und
MehrMaschinelles Lernen und Data Mining
Semestralklausur zur Vorlesung Maschinelles Lernen und Data Mining Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2004/05 Termin: 14. 2. 2005 Name: Vorname: Matrikelnummer:
MehrData Mining (ehem. Entscheidungsunterstützungssysteme)
Data Mining (ehem. Entscheidungsunterstützungssysteme) Melanie Pfoh Anja Tetzner Christian Schieder Übung WS 2014/15 AGENDA TEIL 1 Aufgabe 2 (Wiederholung OPAL / Vorlesungsinhalte) ENTSCHEIDUNGSBAUMVERFAHREN
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrTEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
MehrDie Korrelation von Merkmalen
Die Korrelation von Merkmalen In der Analse von Datenmaterial ist eines der Hauptziele der Statistik eine Abhängigkeit bzw. einen Zusammenhang zwischen Merkmalen zu erkennen. Die Korrelation ermittelt
MehrDeep Learning Prof. Dr. E. Rahm und Mitarbeiter
Deep Learning Prof. Dr. E. Rahm und Mitarbeiter Seminar, WS 2017/18 Big Data Analyse-Pipeline Dateninte -gration/ Anreicherung Datenextraktion / Cleaning Datenbeschaffung Datenanalyse Interpretation Volume
Mehr3.5 Entscheidungsbaum- Klassifikatoren. Motivation. finden explizites Wissen Entscheidungsbäume sind für die meisten Benutzer verständlich
3.5 Entscheidungsbaum- Klassifikatoren Motivation ID Alter Autotyp Risiko 1 23 Familie hoch 2 17 Sport hoch 3 43 Sport hoch 4 68 Familie niedrig 5 32 LKW niedrig Autotyp = LKW LKW Risikoklasse = niedrig
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher
Mehr5.4 Nächste-Nachbarn-Klassifikatoren
5.4 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfacher Nächster-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
MehrMaschinelles Lernen: Symbolische Ansätze
Klausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz Technische Universität Darmstadt Wintersemester 2014/15 Termin: 17. 2. 2015 Name: Vorname: Matrikelnummer: Fachrichtung:
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?
Mehr4 Gleichungen und Ungleichungen
In diesem Kapitel werden Techniken zur Bestimmung der Lösungsmengen von Gleichungen und Ungleichungen rekapituliert. 4.1 Eindimensionale Gleichungen und Ungleichungen Eine Gleichung oder Ungleichung ohne
MehrErhalt der Privatsphäre beim Data Mining
Seminar im SS 2007 Aktuelle Herausforderungen an Datenschutz und Datensicherheit in modernen Informationssystemen Erhalt der beim Ulrich Graf Betreuer: Frank Eichinger Institut für Programmstrukturen und
MehrEFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1
EFME Aufsätze (150 200 Wörter) Der Aufbau von Entscheidungsbäumen...1 PCA in der Gesichtserkennung... 2 Bias, Varianz und Generalisierungsfähigkeit... 3 Parametrische und nicht-parametrische Lernverfahren:
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrInhalt. Einleitung... XIII
Inhalt Einleitung................................................. XIII 1 Vektoren, Matrizen und Arrays.................................. 1 1.0 Einführung.......................................... 1 1.1
MehrVorlesung. Machine Learning - Entscheidungsbäume
Vorlesung Machine Learning - Entscheidungsbäume Vorlesung Machine Learning - Entscheidungsbäume http://de.wikipedia.org/wiki/datei:deu_tutorial_-_hochladen_von_bildern_neu%2bcommons.svg http://www.rulequest.com/personal/
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrKapitel ML: III (Fortsetzung)
Kapitel ML: III (Fortsetzung) III. Entscheidungsbäume Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning ML: III-87 Decision Trees c STEIN/LETTMANN 2005-2011 Missklassifikationskosten
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrData Mining und maschinelles Lernen
Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrSBWL Tourismusanalyse und Freizeitmarketing
SBWL Tourismusanalyse und Freizeitmarketing Vertiefungskurs 4: Multivariate Verfahren 2 Teil 3: Mischmodelle / Modellgestützte Clusteranalyse Achim Zeileis & Thomas Rusch Institute for Statistics and Mathematics
MehrPolynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Dominik Lahmann Tobias Scheffer Entscheidungsbäume
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen
INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen: Clustern von Attributen Literatur J. Han, M. Kamber: Data Mining Concepts and Techniques. J. Han et. al: Mining Frequent Patterns without Candidate
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade/Niels Landwehr Jules Rasetaharison, Tobias Scheffer Entscheidungsbäume Eine von vielen Anwendungen:
MehrData Warehousing und Data Mining
Data Warehousing und Data Mining Klassifikation Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Einführung Problemstellung Evaluation Overfitting knn Klassifikator Naive-Bayes
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrModellierung. Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest. Wolfgang Konen Fachhochschule Köln Oktober 2007.
Modellierung Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest Wolfgang Konen Fachhochschule Köln Oktober 2007 W. Konen DMC WS2007 Seite - 1 W. Konen DMC WS2007 Seite - 2 Inhalt Typen der Modellierung
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen
MehrAnalytics Entscheidungsbäume
Analytics Entscheidungsbäume Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Regression Klassifikation Quellen Regression Beispiel Baseball-Gehälter Gehalt: gering
MehrDecision-Tree-Klassifikator
D3kjd3Di38lk323nnm Decision-Tree-Klassifikator Decision Trees haben einige Vorteile gegenüber den beiden schon beschriebenen Klassifikationsmethoden. Man benötigt in der Regel keine so aufwendige Vorverarbeitung
MehrSelbstständiges Lernen
Kapitel 5 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrSeminar Text- und Datamining Datamining-Grundlagen
Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation
MehrTutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
MehrKlassifikation. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007
Klassifikation 0 Überblick Grundkonzepte Entscheidungsbäume Evaluierung von Klassifikatoren Lernen von Regeln Klassifikation mittels Assoziationsregeln Naïver Bayescher Klassifikator Naïve Bayes für Text
MehrTextmining Klassifikation von Texten Teil 1: Naive Bayes
Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 6. Übungsblatt Aufgabe 1 Gegeben sei eine Beispielmenge mit folgenden Eigenschaften: Jedes Beispiel ist durch 10 nominale Attribute A 1,...,
Mehr