Überwachtes Lernen I: Klassifikation und Regression

Größe: px
Ab Seite anzeigen:

Download "Überwachtes Lernen I: Klassifikation und Regression"

Transkript

1 Überwachtes Lernen I: Klassifikation und Regression Praktikum: Data Warehousing und Data Mining

2 Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung) Unter Benutzung beliebiger bekannter Attributwerte Institut für Programmstrukturen und Datenorganisation (IPD) Beispiele: Klassifikation von Spam Vorhersage von Kundenverhalten wie Kündigungen (Churn) Vorhersage von Kreditwürdigkeit Beurteilung von industriellen Gütern 2

3 Regressionsprobleme Idee Bestimmung eines unbekannten numerischen Attributwertes (ordinale und kategorische Vorhersagen durch Schwellwertsetzung) Unter Benutzung beliebiger bekannter Attributwerte Institut für Programmstrukturen und Datenorganisation (IPD) Beispiele: Vorhersage von Kundenverhalten wie Zeit bis Kündigung Vorhersage von Kosten, Aufwand o.ä. Voraussage von Verkaufszahlen, z.b. von Büchern 3

4 Prozess 1: Klassifikationsmodell lernen Trainings- Daten Klassifikator Lernen NAME RANK YEARS TENURED Mike Assistant Prof 3 no Mary Assistant Prof 7 yes Bill Professor 2 yes Jim Associate Prof 7 yes Dave Assistant Prof 6 no Anne Associate Prof 3 no Klassifikator IF rank = Professor OR years > 6 THEN tenured = yes 4

5 Prozess 2: Vorhersagen mit dem Modell Klassifikator Test- Daten NAME RANK YEARS TENURED Tom Assistant Prof 2 no Merlisa Associate Prof 7 no George Professor 5 yes Joseph Assistant Prof 7 yes Neue Daten (Jeff, Professor, 4) Tenured? 5

6 Überwachtes vs. Unüberwachtes Lernen Überwachtes Lernen (Klassifikation, Regression) Bei den Trainingsdaten ist das Vorhersageattribut bekannt Die Zielgrößen neuer Datensätze werden auf Basis des gelernten Modells vorhergesagt Unüberwachtes Lernen (Clusteranalyse) Die Vorhersageattribute (Klassen bzw. hier Cluster) des Lerndatensatzes sind unbekannt Ziel ist es, aus Werten und Beobachtungen des Datensatzes eine Clustereinteilung zu finden 6

7 Techniken zum überwachten Lernen Technik Klassifikation Regression k-nearest Neighbour X X Statistische Techniken (Lineare Regression etc.) Entscheidungsbäume Regressionsbäume (X) X Neuronale Netze X X Support Vektor Maschinen (SVMs) X X Regelbasierte Techniken X X Naive Bayes Assoziationsregeln zur Klassifikation (X) X X X X 7

8 Zum Einstieg: k-nearest Neighbour Gegeben: Lerndatensatz L Vorgehen zur Klassifikation eines Tupels t: Menge S: die k nächsten Nachbarn von t in L Klassifikation von t durch Klasse mit meisten Elementen in S Als Regressionsverfahren: Vorhersage ist Mittelwert der Tupel in S Anmerkungen: Nähe über Distanzmaß (z.b. euklidische Distanz) Kein Lernen im engeren Sinn Vorhersage rechenaufwändig für große L Einsatz nur sinnvoll bei wenigen, numerischen Attributen 8

9 Statistische Techniken zur Regression

10 Einfache Lineare Regression Vorhersage der Zielvariable y durch eine Prediktorvariable x Gegeben: Lerndatensatz D = {(x 1, y 1 ), (x 2, y 2 ),, (x n, y n )}, n = D Vermutung eines linearen Zusammenhangs Gesucht: Gerade y = w 0 + w 1 x Bestimmung von w 0, w 1 (Regressionskoeffizienten) w 0 = 23,6 w 1 = 03,5 y = 23,6 + 3,5 x Lerndatensatz D: 10

11 Berechnung der Regressionskoeffizienten Zunächst: Bestimmung des Fehlers als Summe der quadratischen Abweichungen E= Σ i (y i (w 0 + w 1 x i )) 2 Aus der notwendigen Bedingung für ein Minimum der Fehlfunktion lassen sich unter Verwendung von partiellen Ableitungen w 0 und w 1 berechnen: w D ( x i i= 1 = D 1 i= 1 x)( y ( x i i x) 2 y) w 0 = y w x 1 x, y: y Durchschnitt aller x 1, x 2,, x n bzw. aller y 1, y 2,, y n (Rechenbeispiel: S. Data-Mining-Buch von J. Han, M. Kamber) 11

12 Lineare Regression Fehlermaße Üblich ist: Mittlerer quadratischer Abstand in y-richtung Andere sinnvolle Fehlermaße: Mittlerer absoluter Abstand in y-richtung Mittlerer euklidischer Abstand Maximaler absoluter/quadratischer Abstand in y-richtung Maximaler euklidischer Abstand Diese Maße können jedoch nicht verwendet werden: Betragsfunktion (absoluter Abstand) und Maximum sind nicht überall differenzierbar. Die Ableitung beim euklidischen Abstand führt zu einem nichtlinearen Gleichungssystem; ist nicht analytisch lösbar. 12

13 Multivariate Lineare Regression Typischerweise steht nicht nur eine Prediktorvariable x zur Verfügung, sondern mehrere (p) : Vektor X i := x i,1, x i,2,, x i,p Lerndatensatz: D = {(X 1, y 1 ), (X 2, y 2 ),, (X n, y n )} Hyper-Ebene: y = w 0 + w 1 x 1 + w 2 x w p x p Die Methode zur Minimierung der Fehler-Quadrate kann übertragen werden: Es entsteht ein lineares Gleichungssystem. Lösbar mit linearer Algebra (Matrizen). Lösung mit numerischen Methoden oft effizienter. 13

14 Lineare Regression Bewertung Eigenschaften Aufwand zum Lösen der Gleichungen: O(p³) Koeffizienten sind eventuell interpretierbar. Vorteile Relativ simples Modell: p-dimensionale Hyperebene bei p Prediktorvariablen Dient als Baseline zum Vergleich von Regressionstechniken. Nachteile Gleichungen sind eventuell nicht lösbar, wenn Prediktorvariablen (nahezu) linear abhängig voneinander sind. Alle Prediktorvariablen werden betrachtet, auch irrelevante. Anfällig für Outlier. (Ignorieren von Datenpunkten gefährlich!) Nicht alle Probleme sind linear 14

15 Nichtlineare Regression Einige nichtlineare Probleme können als polynomielle Funktion modelliert werden. Polynomielle (u.a.) Funktionen können in lineare Regressionsmodelle transformiert werden, z.b.: y = w 0 + w 1 x + w 2 x 2 + w 3 x 3 wird gemappt auf: y = w 0 + w 1 x + w 2 x 2 + w 3 x 3 Die Methode zur Minimierung der Fehler-Quadrate mit Ableitungstechniken kann prinzipiell auf beliebige Funktionen übertragen werden. Eventuell sehr hoher Rechenaufwand, aber oft nicht lösbar. Hintergrundwissen kann helfen, einen Term zu finden. 15

16 Lokale Lineare Regression Idee: Mehrere einfache Regressionsfunktionen (hier Geraden) für verschiedene Wertebereiche von x Problem: Brüche an Wertebereichsgrenzen Eine Lösung: Splines glätten die Übergänge Gut geeignet bei wenigen Prädiktorvariablen. Bestimmte Regressionsbäuzme greiften die Idee lokale Regression auf y y x x 16

17 Weitere nichtlineare Verfahren Oft ist eine numerische Parameter-Bestimmung aus partiellen Ableitungen nicht möglich: Parameter gehen nichtlinear in die Regressionsfunktion ein. Ein alternatives Fehlermaß wird verwendet. Lösungsansatz: Systematisches Trial and Error 1. Aufstellen einer (beliebigen) Regressionsfunktion. 2. Suche nach geeigneten Parametern: Random Search Hillclimbing Varianten um lokale Minima zu verhindern Genetische Algorithmen 17

18 Generalisierung vs. Overfitting y Training data y Too simple? x x Too complex? About right? y y x x 18

19 Entscheidungsbäume

20 Klassifikation - Entscheidungsbäume Vorgehen Aufbau eines Baums Knoten entspricht Entscheidungskriterium Blatt entspricht Entscheidung Vorteile Ergebnis leicht interpretierbar Übersetzbar in Regelsystem nein nicht kaufen Zulassung hoch Alter ja Verbrauch niedrig kaufen Diverse Verfahren ID3 / C4.5 / C5.0 / J48 C&RT Quest Chaid alt nicht kaufen modern kaufen Eine Regel (von mehreren): Wenn Zulassung vorhanden und Verbrauch niedrig, dann kaufen. 20

21 Vorgehen bei der Konstruktion 01 Alle Datentupel im Wurzelknoten 02 IF Stoppkriterium erreicht THEN 03 Aktueller Knoten wird Blattknoten mit Majoritätsklasse 04 ELSE 05 Suche geeignetes Entscheidungssattribut (Splitattribut) 06 Wende Algorithmus rekursiv auf Teilmengen an Anschließend: Beschneide Baum (Pruning) Existierende Algorithmen unterscheiden sich in der Wahl des Stoppkriteriums der Art des Splits dem Vorgehen zur Wahl des Splitattributs dem Vorgehen zum Splitten eines Attributs der Wahl des Pruningverfahrens 21

22 Wahl des Stoppkriteriums Natürliche Stoppkriterien Institut für Programmstrukturen und Datenorganisation (IPD) Knoten enthält (fast) nur Tupel einer Klasse Alle Tupel sind identisch bis auf die Klasse Alle Klassifikationsattribute ausgeschöpft Weitere Kriterien Minimale Tupelzahl je Knoten Minimaler Anteil falsch klassifizierter Tupel Maximale Baumtiefe Maximale Knotenanzahl 22

23 Art des Splits Diskrete vs. kontinuierliche Attribute Diskret Ein Knoten pro Attributwert Kontinuierlich: Ein Knoten pro Attributintervall blau < 5 Augenfarbe Alter Binäre vs. n-äre Bäume Zwei oder mehrere Ausgangskanten rot 5 10 grün > 10 Frage: Wie erreicht man binäre Bäume mit kategorischen Attributen? Frage: Wie gelangt man an Attributintervalle? 23

24 Wahl des Splitattributs Beispiel (binäres Attribut) Objektmenge: Verschiedene Splits möglich: Split A: Linke Seite : 17% Fehler Rechte Seite : 50% Fehler Split B: Linke Seite : 22% Fehler Rechte Seite : 33% Fehler Split C Institut für Programmstrukturen und Datenorganisation (IPD) Welcher Split ist vorzuziehen? Festlegung eines Bewertungsmaßes 24

25 Prinzip Informationsgewinn Maximierung des Informationsgewinns Vorgehen Basiert auf Shannon-Entropie H = - n i=1 p i log 2 p i Informationsgewinn I gain (C,A) = H(C) H(C A) I gain (C,A) = - C i=1 p i log 2 p i A j=1 p j (- C i=1 p i j log 2 p i j ) H(C) Entropie der Klassenverteilung (mit C Klassenattribut) H(C A) Erwartete Entropie der Klassenverteilung, wenn Attribut A bekannt 25

26 Informationsgewinn - Beispiel Berechnung des Informationsgewinns Allgemein: I gain (C,A) = - C i=1 p i log 2 p i A j=1 p j (- C i=1 p i j log 2 p i j ) H(C) = - (4/12 * log 2 (4/12) + 8/12 * log 2 (8/12)) = 0,918 Split A: I gain (C,A) = 0,918 (6/12 * (-1) * (1/6 * log 2 (1/6) + 5/6 * log 2 (5/6)) I gain (C,A) = + 6/12 * (-1) * (3/6 * log 2 (3/6) + 3/6 * log 2 (3/6))) I gain (C,A) = 0,918 0,325 0,500 I gain (C,A) = 0,918 0,825 = 0,093 Split B: I gain (C,B) = 0,918 (9/12 * (-1) * (2/9 * log 2 (2/9) + 7/9 * log 2 (7/9)) I gain (C,A) = + 3/12 * (-1) * (1/3 * log 2 (1/3) + 2/3 * log 2 (2/3))) I gain (C,A) = 0,918 0,573 0,230 I gain (C,A) = 0,918 0,803 = 0,115 Hier würde B bevorzugt 26

27 Gini Index Prinzip Minimierung der Heterogenität Institut für Programmstrukturen und Datenorganisation (IPD) Vorgehen Wahrscheinlichkeitsmaß, bei Stichprobe Datentupel aus 2 unterschiedlichen Klassen zu erhalten: Gini = 1 p(0)² p(1)² Minimum = 0,0 alle Objekte aus einer Klasse Maximale Homogenität Maximum = 0,5 Objekte zweier Klassen gleich häufig Maximale Heterogenität 27

28 Gini Index - Beispiel Berechnung der Heterogenität Split A: Linke Seite = 1 - (1/6) 2 - (5/6) 2 = 0,278 Rechte Seite = 1 - (3/6) 2 - (3/6) 2 = 0,500 Split B: Linke Seite = 1 - (2/9) 2 - (7/9) 2 = 0,346 Rechte Seite = 1 - (1/3) 2 - (2/3) 2 = 0,444 Einfacher Durchschnitt A: (0, ,500) / 2 = 0,389 B: (0, ,444) / 2 = 0,395 Hier würde A bevorzugt Institut für Programmstrukturen und Datenorganisation (IPD) 28

29 Weitere Bewertungsmaße Chi-Quadrat-Test Institut für Programmstrukturen und Datenorganisation (IPD) Maß für die Abhängigkeit zwischen Merkmal und Zielgröße Auswahl des Merkmals mit dem höchsten Chi- Quadrat-Wert (= stärkste Abhängigkeit) Minimale Beschreibungslänge (MDL) Ähnlich Informationsgewinn Zusätzlich Strafe für zunehmende Komplexität des Baums 29

30 Splitten eines Attributs Nicht alle Attribute sind binär (Binärbäume) bzw. haben genau n Attribute (n-äre Bäume). Vorgehen kategorische Attribute: Es werden Bewertungsmaße für alle Aufteilungen der Klassen in 2 bzw. n Mengen berechnet. Z.B. {blau, rot, grün} bei Binärbäumen: {{blau, rot}, grün}, {blau, {rot, grün}} und {{blau, grün}, rot} Vorgehen numerische Attribute: 1. Auf- oder absteigendes Sortieren der Attribute 2. Setzen von allen Kombinationen von 1 bzw. (n-1) Splits Alternativ: Diskretisieren des Attributs vor dem eigentlichen Lernprozess (z.b. CHAID) 30

31 Pruning - Motivation Institut für Programmstrukturen und Datenorganisation (IPD) zu klein gut (generalisierend) Overfitting Achtung: Die optimale Baumgröße ist bei jedem Datensatz unterschiedlich! 31

32 Pruningverfahren Institut für Programmstrukturen und Datenorganisation (IPD) Gründe für Pruning komplexer Bäume Einfachheit / Verständlichkeit Verhinderung von Overfitting / Generalisierungsfähigkeit Pre-Pruning: Stopkriterien bei Baumerstellung Post-Pruning: Nachträgliches Stutzen Subtree Replacement Ersetzen von Entscheidungsknoten durch Blattknoten, wenn Klassifikationsbeitrag gering Optimal: Entscheidung zum Ersetzen mit frischen Daten evaluieren Subtree Raising Verschiebung von Teilbäumen nach oben Insbesondere dann, wenn es Attribute gibt, die einzeln wenig, aber in Kombination sehr stark zur Klassifikation beitragen. Solche Attribute rutschen sonst sehr leicht weit nach unten. 32

33 Regressionsbäume

34 Regressionsbäume und Model Trees Regressionsbäume: Entscheidungsbäume, dessen Blätter anstatt kategorischen Labels numerische Zielgrößen enthalten (z.b. das Mittel aller Lerntupel im Knoten) Model Trees: Variante von Regressionsbäumen, deren Blattknoten je eine (multivariate lineare) Regressionsfunktion für alle Tupel eines Knotens enthalten x 1 <= 7 ja nein 2,7 x 2 >= 2 ja 3,6 x 1 <= 7 ja nein x 2 >= 2 ja nein 3,2 nein 34

35 Regressionsbäume Wie kann man einen Regressionsbaum lernen? Wie Entscheidungsbäume, aber andere Wahl des Splitattributs und angepasstes Pruning. Wahl des Splitattributs welches die Varianz minimiert. welches die Standardabweichung minimiert (M5). welches die stärkste Korrelation mit der Zielvariablen hat, basierend auf dem p-wert des statistischen F-Test (CHAID). welches die Fehlerquadrate minimiert (C&RT). 35

36 Splitattribut-Wahl mit Fehlerquadraten Die Methode der Fehlerquadrate lässt sich auch hier als Fehlermaß R in einem Knoten nutzen: R ist die Summe der quadratischen Fehler von allen Tupeln i im aktuellen Knoten t, geteilt durch die Anzahl der Tupel in t. Die Fehler sind die Differenz des Zielwertes des jeweiligen Tupels y i und dem Mittel der Zielwerte aller dieser Tupel in t. 1 = t i t R ( t) ( y y( t))² Es wird der Split gewählt, der R der beiden Kinder eines Knotens minimiert (bei Binärbäumen wie C&RT). So erhält man Tupel mit ähnlichen Werten in einem Knoten. Entsprechend bei Varianz/Standardabweichung i 36

37 Model Trees Lernen eines Model Trees (hier M5) Lernen des Baums zunächst wie bei Regressionsbäumen. In jedem Knoten wird ein multivariates lineares Regressionsmodell gelernt, auf Basis aller Attribute, die in den darunter liegenden Knoten getestet werden. Die Regressionsmodelle bilden auch die Basis für das anschließende Prunen Vorhersagen mit dem Model Tree (auch M5) Zunächst wie beim Entscheidungsbaum. Das Regressionsmodell des Blattknotens liefert Vorhersage. Vorhersagen sind unstetig, da lokale lineare Regression. Abhilfe: Glätten der Funktion durch Einbeziehung der Vorhersagen aller darüber liegenden Knoten bis zur Wurzel. 37

38 Regressionsbäume Bewertung Eigenschaften Bäume helfen eventuell beim Verständnis des Problems. Model Trees im allgemeinen genauer. Vorteile Oft besser als lineare Regression. Hilfreich bei hochdimensionalen Problemen. Behandlung von kategorischen Variablen möglich. Im allgemeinen recht schnell; bei einzelnen Regressionsfunktionen findet Attributauswahl statt (Model Trees). Nachteile Große Gefahr des Overfittings gegeben. Der ganze Baum mit Regressionsgeraden stellt eine sehr komplexe Funktion dar (Model Trees). 38

39 Evaluationstechniken

40 Sampling bzw. Holdout Institut für Programmstrukturen und Datenorganisation (IPD) Die Leistung eines Klassifikators kann nicht mit dem Lerndatensatz beurteilt werden! Overfitting! Vgl. Motivation Pruning. Deshalb: Unterteilung der Ausgangsdaten in Training Set zum Lernen des Klassifikators (oft zwei Drittel) Test Set zur Evaluation des Klassifikators (oft ein Drittel) Beide Mengen sollten möglichst repräsentativ sein: Stratifikation: Aus jeder Klasse wird ein proportionaler Anteil in das Training- und Test Set übernommen. Eine Unterteilung in Training- und Test Set ist oft nicht möglich, wenn nicht genug Daten zur Verfügung stehen: Ein kleines Test Set ist ggf. nicht mehr repräsentativ. Ein kleines Training Set bietet ggf. zu wenig zum Lernen. 40

41 Klassifikation - Vorgehen Institut für Programmstrukturen und Datenorganisation (IPD) Trainingsdaten Klassifikator lernen Testdaten Klassifikator testen Klassifikationsregeln modell optimiertes Klassifikationsregeln modell Produktivdaten Klassifikator anwenden 41

42 Cross-Validation Unterteilung der Ausgangsdaten in k Partitionen Typischerweise wird k=10 gewählt Eine Partition bildet Test Set k 1 Partitionen bilden Training Set Berechnung und Evaluation von k Klassifikatoren: In k Runden wird jedes Datentupel k-1 mal zum Lernen verwendet und genau ein mal klassifiziert. Stratifizierte Cross-Validation ist in vielen Fällen die zu empfehlende Evaluationstechnik, besonders aber bei kleinen Datensätzen. Achtung: Cross-Validation ist sehr Rechenaufwändig Leave-One-Out ist Spezialfall für k=n 42

43 Evaluationsmasse für Klassifikatoren Konfusions-Matrix Vorhersage Ja Nein Tatsächliche Klasse Ja Nein True Positives (TP) False Positives (FP) False Negatives (FN) True Negatives (TN) accuracy = (TP + TN) / (TP + FN + FP + TN) sensitivity = TP / (TP + FN) specificity = TN / (FP + TN) precision = TP / (TP + FP) lift = precision / P(ja); P(ja) = (TP + FN) / (TP + FN + FP + TN) 43

44 Evaluation von Regressionstechniken Es existieren viele Techniken Data Mining Cup: Die Summe aller Abweichungen (aller 8 Bücher bei allen vorauszusagenden Händlern) von der bekannten Anzahl an Buchverkäufen. 44

45 Quellen Institut für Programmstrukturen und Datenorganisation (IPD) J. Han und M. Kamber: Data Mining: Concepts and Techniques, Morgan Kaufmann, Hand, H. Mannila und P. Smyth: "Principles of Data Mining", MIT Press, T. M. Mitchell: Machine Learning, Mc Graw Hill, 1997 I.H. Witten und E. Frank: "Data Mining - Practical Machine Learning Tools and Techniques", Morgan Kaufmann, D. F. Klawonn: Folien zur Vorlesung Data Mining, Pierre Geurts: Folien zur Vorlesung Stochastic methods. SPSS: Clementine 12.0 Algorithms Guide C. Borgelt: Folien zur Vorlesung Intelligent Data Analysis, Vorlesungsskript verfügbar (120 Seiten): 45

Praktikum Data Warehousing und Data Mining

Praktikum Data Warehousing und Data Mining Klassifikation I Praktikum Data Warehousing und Data Mining Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung) Unter Benutzung beliebiger

Mehr

Überwachtes Lernen: Klassifikation und Regression

Überwachtes Lernen: Klassifikation und Regression Überwachtes Lernen: Klassifikation und Regression Praktikum: Data Warehousing und Data Mining Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung)

Mehr

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Entscheidungsbäume. Minh-Khanh Do Erlangen, Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume

Mehr

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer *Entscheidungsbäume Gliederung 1. Einführung 2. Induktion 3. Beispiel 4. Fazit Einführung 1. Einführung a. Was sind Decision Trees?

Mehr

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus 3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume 4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden

Mehr

, Data Mining, 2 VO Sommersemester 2008

, Data Mining, 2 VO Sommersemester 2008 Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Induktion von Entscheidungsbäumen

Induktion von Entscheidungsbäumen Induktion von Entscheidungsbäumen Christian Borgelt Institut für Wissens- und Sprachverarbeitung Otto-von-Guericke-Universität Magdeburg Universitätsplatz 2, 39106 Magdeburg E-mail: borgelt@iws.cs.uni-magdeburg.de

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein

Mehr

Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln

Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Praktikum: Data Warehousing und Data Mining Clusteranalyse Clusteranalyse Idee Bestimmung von Gruppen ähnlicher Tupel in multidimensionalen Datensätzen.

Mehr

Anhang B. Regression

Anhang B. Regression Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Naive Bayes für Regressionsprobleme

Naive Bayes für Regressionsprobleme Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen

Mehr

Mathias Krüger / Seminar Datamining

Mathias Krüger / Seminar Datamining Entscheidungsbäume mit SLIQ und SPRINT Mathias Krüger Institut für Informatik FernUniversität Hagen 4.7.2008 / Seminar Datamining Gliederung Einleitung Klassifikationsproblem Entscheidungsbäume SLIQ (

Mehr

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014 Lernen von Entscheidungsbäumen Volker Tresp Summer 2014 1 Anforderungen an Methoden zum Datamining Schnelle Verarbeitung großer Datenmengen Leichter Umgang mit hochdimensionalen Daten Das Lernergebnis

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt 9. Februar 2016 1 Aufgabe 1: RelieF (1) Gegeben sind folgende 12 Beispiele der Wetter-Daten: ID outlook

Mehr

Rückblick. Entscheidungsunterstützende Systeme / Kapitel 4: Klassifikation

Rückblick. Entscheidungsunterstützende Systeme / Kapitel 4: Klassifikation Rückblick k-nächste Nachbarn als distanzbasiertes Verfahren zur Klassifikation benötigt sinnvolles Distanzmaß und weist vorher unbekanntem Datenpunkt dann die häufigste Klasse seiner k nächsten Nachbarn

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:

Mehr

Klassifikation im Bereich Musik

Klassifikation im Bereich Musik Klassifikation im Bereich Musik Michael Günnewig 30. Mai 2006 Michael Günnewig 1 30. Mai 2006 Inhaltsverzeichnis 1 Was ist eine Klassifikation? 3 1.1 Arten und Aufbau von Klassifikationen.................

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv

Mehr

A linear-regression analysis resulted in the following coefficients for the available training data

A linear-regression analysis resulted in the following coefficients for the available training data Machine Learning Name: Vorname: Prof. Dr.-Ing. Klaus Berberich Matrikel: Aufgabe 1 2 3 4 Punkte % % (Bonus) % (Gesamt) Problem 1 (5 Points) A linear-regression analysis resulted in the following coefficients

Mehr

fuzzy-entscheidungsbäume

fuzzy-entscheidungsbäume fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25 Mathematische Grundlagen III Evaluation 16 Juli 2011 1/25 Training Set und Test Set Ein fairer Test gibt an, wie gut das Modell im Einsatz ist Resubstitution: Evaluation auf den Trainingsdaten Resubstitution

Mehr

Methodik der multiplen linearen Regression

Methodik der multiplen linearen Regression Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und

Mehr

Maschinelles Lernen und Data Mining

Maschinelles Lernen und Data Mining Semestralklausur zur Vorlesung Maschinelles Lernen und Data Mining Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2004/05 Termin: 14. 2. 2005 Name: Vorname: Matrikelnummer:

Mehr

Data Mining (ehem. Entscheidungsunterstützungssysteme)

Data Mining (ehem. Entscheidungsunterstützungssysteme) Data Mining (ehem. Entscheidungsunterstützungssysteme) Melanie Pfoh Anja Tetzner Christian Schieder Übung WS 2014/15 AGENDA TEIL 1 Aufgabe 2 (Wiederholung OPAL / Vorlesungsinhalte) ENTSCHEIDUNGSBAUMVERFAHREN

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

TEIL 13: DIE EINFACHE LINEARE REGRESSION

TEIL 13: DIE EINFACHE LINEARE REGRESSION TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen

Mehr

Die Korrelation von Merkmalen

Die Korrelation von Merkmalen Die Korrelation von Merkmalen In der Analse von Datenmaterial ist eines der Hauptziele der Statistik eine Abhängigkeit bzw. einen Zusammenhang zwischen Merkmalen zu erkennen. Die Korrelation ermittelt

Mehr

Deep Learning Prof. Dr. E. Rahm und Mitarbeiter

Deep Learning Prof. Dr. E. Rahm und Mitarbeiter Deep Learning Prof. Dr. E. Rahm und Mitarbeiter Seminar, WS 2017/18 Big Data Analyse-Pipeline Dateninte -gration/ Anreicherung Datenextraktion / Cleaning Datenbeschaffung Datenanalyse Interpretation Volume

Mehr

3.5 Entscheidungsbaum- Klassifikatoren. Motivation. finden explizites Wissen Entscheidungsbäume sind für die meisten Benutzer verständlich

3.5 Entscheidungsbaum- Klassifikatoren. Motivation. finden explizites Wissen Entscheidungsbäume sind für die meisten Benutzer verständlich 3.5 Entscheidungsbaum- Klassifikatoren Motivation ID Alter Autotyp Risiko 1 23 Familie hoch 2 17 Sport hoch 3 43 Sport hoch 4 68 Familie niedrig 5 32 LKW niedrig Autotyp = LKW LKW Risikoklasse = niedrig

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher

Mehr

5.4 Nächste-Nachbarn-Klassifikatoren

5.4 Nächste-Nachbarn-Klassifikatoren 5.4 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfacher Nächster-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Klausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz Technische Universität Darmstadt Wintersemester 2014/15 Termin: 17. 2. 2015 Name: Vorname: Matrikelnummer: Fachrichtung:

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?

Mehr

4 Gleichungen und Ungleichungen

4 Gleichungen und Ungleichungen In diesem Kapitel werden Techniken zur Bestimmung der Lösungsmengen von Gleichungen und Ungleichungen rekapituliert. 4.1 Eindimensionale Gleichungen und Ungleichungen Eine Gleichung oder Ungleichung ohne

Mehr

Erhalt der Privatsphäre beim Data Mining

Erhalt der Privatsphäre beim Data Mining Seminar im SS 2007 Aktuelle Herausforderungen an Datenschutz und Datensicherheit in modernen Informationssystemen Erhalt der beim Ulrich Graf Betreuer: Frank Eichinger Institut für Programmstrukturen und

Mehr

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1 EFME Aufsätze (150 200 Wörter) Der Aufbau von Entscheidungsbäumen...1 PCA in der Gesichtserkennung... 2 Bias, Varianz und Generalisierungsfähigkeit... 3 Parametrische und nicht-parametrische Lernverfahren:

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Inhalt. Einleitung... XIII

Inhalt. Einleitung... XIII Inhalt Einleitung................................................. XIII 1 Vektoren, Matrizen und Arrays.................................. 1 1.0 Einführung.......................................... 1 1.1

Mehr

Vorlesung. Machine Learning - Entscheidungsbäume

Vorlesung. Machine Learning - Entscheidungsbäume Vorlesung Machine Learning - Entscheidungsbäume Vorlesung Machine Learning - Entscheidungsbäume http://de.wikipedia.org/wiki/datei:deu_tutorial_-_hochladen_von_bildern_neu%2bcommons.svg http://www.rulequest.com/personal/

Mehr

Splitting. Impurity. c 1. c 2. c 3. c 4

Splitting. Impurity. c 1. c 2. c 3. c 4 Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Kapitel ML: III (Fortsetzung)

Kapitel ML: III (Fortsetzung) Kapitel ML: III (Fortsetzung) III. Entscheidungsbäume Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning ML: III-87 Decision Trees c STEIN/LETTMANN 2005-2011 Missklassifikationskosten

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

SBWL Tourismusanalyse und Freizeitmarketing

SBWL Tourismusanalyse und Freizeitmarketing SBWL Tourismusanalyse und Freizeitmarketing Vertiefungskurs 4: Multivariate Verfahren 2 Teil 3: Mischmodelle / Modellgestützte Clusteranalyse Achim Zeileis & Thomas Rusch Institute for Statistics and Mathematics

Mehr

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Dominik Lahmann Tobias Scheffer Entscheidungsbäume

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen

INTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen: Clustern von Attributen Literatur J. Han, M. Kamber: Data Mining Concepts and Techniques. J. Han et. al: Mining Frequent Patterns without Candidate

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade/Niels Landwehr Jules Rasetaharison, Tobias Scheffer Entscheidungsbäume Eine von vielen Anwendungen:

Mehr

Data Warehousing und Data Mining

Data Warehousing und Data Mining Data Warehousing und Data Mining Klassifikation Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Einführung Problemstellung Evaluation Overfitting knn Klassifikator Naive-Bayes

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Modellierung. Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest. Wolfgang Konen Fachhochschule Köln Oktober 2007.

Modellierung. Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest. Wolfgang Konen Fachhochschule Köln Oktober 2007. Modellierung Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest Wolfgang Konen Fachhochschule Köln Oktober 2007 W. Konen DMC WS2007 Seite - 1 W. Konen DMC WS2007 Seite - 2 Inhalt Typen der Modellierung

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen

Mehr

Analytics Entscheidungsbäume

Analytics Entscheidungsbäume Analytics Entscheidungsbäume Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Regression Klassifikation Quellen Regression Beispiel Baseball-Gehälter Gehalt: gering

Mehr

Decision-Tree-Klassifikator

Decision-Tree-Klassifikator D3kjd3Di38lk323nnm Decision-Tree-Klassifikator Decision Trees haben einige Vorteile gegenüber den beiden schon beschriebenen Klassifikationsmethoden. Man benötigt in der Regel keine so aufwendige Vorverarbeitung

Mehr

Selbstständiges Lernen

Selbstständiges Lernen Kapitel 5 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

Klassifikation. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007

Klassifikation. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007 Klassifikation 0 Überblick Grundkonzepte Entscheidungsbäume Evaluierung von Klassifikatoren Lernen von Regeln Klassifikation mittels Assoziationsregeln Naïver Bayescher Klassifikator Naïve Bayes für Text

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 6. Übungsblatt Aufgabe 1 Gegeben sei eine Beispielmenge mit folgenden Eigenschaften: Jedes Beispiel ist durch 10 nominale Attribute A 1,...,

Mehr