Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln

Ähnliche Dokumente
6.6 Vorlesung: Von OLAP zu Mining

INTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen

Kapitel 11: Association Rules

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

Multivariate Verfahren

Data Mining. Informationssysteme, Sommersemester 2017

Mathematische Grundlagen III

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

Fortgeschrittene Computerintensive Methoden: Assoziationsregeln Steffen Unkel Manuel Eugster, Bettina Grün, Friedrich Leisch, Matthias Schmid

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering

Maschinelles Lernen: Symbolische Ansätze

Mining über RDBMSe. von. Christian Widmer. Wie gut lässt sich Mining mit SQL realisieren?

Kapitel 8: Assoziationsregeln

Clustern: Voraussetzungen

Klassifikation und Ähnlichkeitssuche

Frequent Itemset Mining + Association Rule Mining

Assoziationsregeln & Sequenzielle Muster. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007

4.Tutorium Multivariate Verfahren

Kapitel 12: Schnelles Bestimmen der Frequent Itemsets

Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Kapitel IR:III (Fortsetzung)

Informationssysteme. Prof. Dr. Hans Czap. Lehrstuhl für Wirtschaftsinformatik I. Lehrstuhl für Wirtschaftsinformatik I - II - 1 -

Algorithms for Pattern Mining AprioriTID. Stefan George, Felix Leupold

Clusteranalyse. Anwendungsorientierte Einführung. R. Oldenbourg Verlag München Wien. Von Dr. Johann Bacher

Clustering. Methods Course: Gene Expression Data Analysis -Day Four. Rainer Spang

INTELLIGENTE DATENANALYSE IN MATLAB

Apriori-Algorithmus zur Entdeckung von Assoziationsregeln

Ähnlichkeits- und Distanzmaße

Fragenkatalog zur Vorlesung "Grundlagen des Data Mining" (WS 2006/07)

4.4 Hierarchische Clusteranalyse-Verfahren

Methoden zur Cluster - Analyse

5. Assoziationsregeln

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen

Data Mining auf Datenströmen Andreas M. Weiner

Clusteranalyse. Mathematische Symbole Anzahl der Objekte, Versuchspersonen

Inhalt. 5.1 Motivation. 5.2 Clustering mit Repräsentanten. 5.3 Hierarchisches Clustering. 5.4 Dichtebasiertes Clustering. 5.

Data Mining und Knowledge Discovery in Databases

Induktion von Assoziationsregeln. Stefan Mandl

Einführung in das Data Mining Clustering / Clusteranalyse

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser

6. Multivariate Verfahren Zufallszahlen

Data Mining im Einzelhandel Methoden und Werkzeuge

Lernen von Assoziationsregeln

Häufige Item-Mengen: die Schlüssel-Idee. Vorlesungsplan. Apriori Algorithmus. Methoden zur Verbessung der Effizienz von Apriori

Erkennung Sequenzieller Muster Algorithmen und Anwendungen

Bildverarbeitung Herbstsemester. Mustererkennung

Clusteranalyse: Gauß sche Mischmodelle

Data Mining - Wiederholung

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Clusterbasierte Datenanalyse auf Grundlage genetischer Algorithmen in SAP-BI

Exploration und Klassifikation von BigData

k-nächste-nachbarn-schätzung

Data Warehousing und Data Mining

Entscheidungsbäume aus großen Datenbanken: SLIQ

Kapitel 2: Mathematik- und Informatik-Grundlagen

Kapitel 4: Data Mining

Nichtmetrische multidimensionale Skalierung (NMDS) Dr. Heike Culmsee Vegetationsanalyse & Phytodiversität

Clustering Seminar für Statistik

3.3 Nächste-Nachbarn-Klassifikatoren

der Datenauswertung (Übung)

Konzeptbeschreibung Ziel: Methode: Vorgehen: Entfernen von Attributen Verallgemeinerung von Attributen Relevanzanalyse der restlichen Attribute

{0,1} rekursive Aufteilung des Datenraums in die Quadranten NW, NE, SW und SE feste Auflösung des Datenraums in 2 p 2 p Gitterzellen

Algorithmen auf Sequenzen Paarweiser Sequenzvergleich: Alignments

Lösungen zu den Aufgaben zur Multivariaten Statistik Teil 4: Aufgaben zur Clusteranalyse

Methoden der Klassifikation und ihre mathematischen Grundlagen

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Proseminar: Web-Performance

Geometrische Algorithmen Einige einfache Definitionen: Ist ein Punkt in einem Polygon? Punkt-in-Polygon-Problem. Das Punkt-in-Polygon-Problem

Masterarbeit. im Studiengang Informatik. Kombinationen von Data Mining-Verfahren: Analyse und Automatisierung. Ulf Mewe Matrikel.-Nr.

FernUniversität in Hagen. Seminar Data Mining im Sommersemester 2008 Häufige Muster und Assoziationsregeln. Thema Der Apriori-Algorithmus

Vorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG

5 Data Warehouses und Data Mining

Data Mining-Modelle und -Algorithmen

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke

Kapitel 17: Identifikation von Outliern

Kapitel 16: Identifikation von Outliern

Konvexe Hülle. Konvexe Hülle. Mathematik. Konvexe Hülle: Definition. Mathematik. Konvexe Hülle: Eigenschaften. AK der Algorithmik 5, SS 2005 Hu Bin

9 Minimum Spanning Trees

4. Assoziationsregeln. 4.1 Einleitung. 4.2 Einfache Assoziationsregeln. 4.1 Einleitung. Inhalt dieses Kapitels. Motivation

Eine Einführung in R: Hochdimensionale Daten: n << p Teil II

Graphalgorithmen 2. Dominik Paulus Dominik Paulus Graphalgorithmen / 47

Clusteranalyse und Display-Methoden

Häufige Mengen ohne Kandidatengenerierung. FP-Tree: Transaktionen. Konstruktion eines FP-Trees. FP-Tree: Items

4.1 Einleitung. 4. Assoziationsregeln. 4.2 Einfache Assoziationsregeln. 4.1 Einleitung. Inhalt dieses Kapitels. Motivation. Assoziationsregeln

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Mathematisch-Statistische Verfahren des Risiko-Managements - SS

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 8, Henning Meyerhenke

Klasse räumlicher Indexstrukturen, die den Datenraum rekursiv in 4 gleich große Zellen unterteilen (Quadranten NW, NE, SW, SE)

Algorithmen und Datenstrukturen 12

Frequent Itemset Mining und FP-Tree

Kapitel 1: Einleitung

Konzepte II. Netzwerkanalyse für Politikwissenschaftler

Vorlesung Wissensentdeckung

Transkript:

Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Praktikum: Data Warehousing und Data Mining

Clusteranalyse

Clusteranalyse Idee Bestimmung von Gruppen ähnlicher Tupel in multidimensionalen Datensätzen. Klassifizieren ohne die Klassen vorher zu kennen (nichtüberwachtes Lernen). Beispiel Identifizieren von Kundengruppen zum Design passender Produkte. Durchschnittlicher Preis der Produkte Anzahl gekaufter Produkte 3

Eigenschaften guter Cluster Große Intra- Cluster- Ähnlichkeit Große Inter- Cluster- Verschiedenheit Als Ähnlichkeitsmaß wird oft Abstand verwendet Geringer Abstand: Objekte sind ähnlich Großer Abstand: Objekte sind unähnlich 4

Abstandsmasse Viele Clustering-Verfahren benötigen ein geeignetes Abstandsmaß. Übliche Maße (in der Ebene und in hochdimensionalen Räumen): 5

Normalisierung Um Abstände zu berechnen, müssen die Daten oft normalisiert werden. Sonst: Höheres Gewicht bestimmter Attribute. Einfache Technik: Lineare Skalierung auf 0 1 Achtung: Ausreißer vorher behandeln! Illustration Einfluss der Skalierung: y in milli units -> y in kilo units -> x in milli units -> x in milli units -> 6

Abstand von diskreten Werten Abstände von binären, kategorischen und ordinalen Werten sind nicht intuitiv klar. Beispiel ordinale Werte Nur Testen auf =,, <, >, und möglich. Reihenfolge der möglichen Werte von r 0 bis r n, r 0 r i r n Lineares Mapping des Platzes in der Reihenfolge r i auf 0 1: v = (r 0-1) / (r n -1) Beispiel kategorische Werte: Es kann nur auf Gleichheit getestet werden. Abstandsmaß bei p kategorischen Variablen: d = (p m) / p m: Anzahl Übereinstimmungen, ggf. untersch. Gewichtet 7

Berechnung des Abstands zwischen Clustern Single/complete link Kleinster/größter Abstand zweier Punkte von zwei Clustern. Sehr anfällig bei Ausreißern/Rauschen. Average Mittlerer Abstand zwischen allen Punkten von zwei Clustern. Sehr rechenaufwändig. Centroid Abstand der Cluster-Zentren zueinander. Ähnlich wie Average, aber weniger aufwändig. Medoid Abstand der zentralsten Repräsentanten der Cluster zueinander. Ähnlich wie Centroid, aber weniger Anfällig für Ausreißer/Rauschen. 8

Probleme mit abstandsbasiertem Clustering Oft werden nur konvexe Cluster gefunden Abhängig von Berechnungsmethode zum Abstand zweier Cluster (letzte Folie). Single link findet am ehesten konkave Cluster. Mögliche Lösung: dichtebasierte Maße Hohe Dimensionen / dünn besetzte Attribute verringern die Bedeutung des Abstands. Ein Ansatz: Subspace-Clustering Suche Cluster unter Verwendung eines Subsets von Attributen. Subsets schwer zu bestimmen, wenn Bedeutung der Attribute unbekannt. Achtung: Nicht unbedingt globale Lösung! Konvexe Punktwolken Konkave Punktwolken 9

Kategorisierung von Clustering-Methoden Unterscheidung der Algorithmen durch Vorgehensweise Clusteringverfahren Hierarchische Verfahren Partitionierende Verfahren agglomerativ divisiv Außerdem (Auswahl): Probabilistische Verfahren Dichtebasierte Verfahren 10

Vorgehensweise Partitionierende Verfahren (# Cluster fest) Zunächst: Zufällige Clustereinteilung Dann: Sukzessiver Wechsel der Clusterzugehörigkeit der einzelnen Tupel Hierarchische Verfahren (# Cluster variabel) Agglomerative Verfahren Zunächst: Jedes Tupel ein Cluster Dann: Schrittweise Zusammenfassung ähnlicher Cluster Divisive Verfahren Zunächst: Alle Tupel in selbem Cluster Dann: Schrittweise Aufteilung in möglichst unähnliche Teilcluster 11

Partitionierendes Clustering: k-means Gegeben: Gesucht: Lerndatensatz, Anzahl der zu findenden Cluster k, Abstandsmaß Partitionierung des Datensatz in k Cluster Algorithmus: 1. Wähle zufällig k Cluster-Zentren 2. Weise allen Objekten Cluster zu, basierend auf den Abständen zu den Cluster-Zentren 3. Berechne die neuen Zentren der Cluster 4. Wiederhole Schritt 2 und 3 bis Zentren stabil 12

Illustration k-means Cluster nach der 1., 2. und 3. Iteration Cluster nach der 4., 5. und 12. Iteration 13

Bemerkungen zu k-means Sehr unterschiedliche Ergebnisse möglich. Ggf. lokales Minimum bei schlechtem Seed. Abhilfe: Mehrfache Ausführung, unterschiedliche Seeds. k wird nicht automatisch ermittelt. Abhilfe: 1.) Mehrfache Ausführung mit verschiedenen k 2.) Bestimmung der Ähnlichkeit von jedem Cluster 3.) Entscheidung für k mit homogensten Clustern Anfällig für Outlier und Rauschen, da Verwendung von Mittelwerten. Abhilfe: k-medoids anstatt von k-means (reale Repräsentanten für die Cluster anstatt rechnerischer Mittelpunkte). 14

Hierarchisches Clustering: Dendrogramme agglomerativ divisiv 15

Visualisierung durch Dendrogramme Ein Dendrogramm ist ein Binärbaum. Wurzel repräsentiert alle Tupel. Blätter repräsentieren die einzelnen Tupel. Nachfolgerknoten repräsentieren die zwei Cluster, aus denen der Vorgängerknoten entstanden ist bzw. in die er aufgespalten wurde. Jede horizontale Ebene ist eine Clustereinteilung. Die Kantenlänge repräsentiert die Unähnlichkeit der Cluster. Vorteil: Anzahl der Cluster kann mit Hilfe eines Dendrogramms bestimmt werden. Die Ebene mit der längsten Kante wird als Clustereinteilung genommen (Maximierung der Unähnlichkeit). 16

Hierarchisches Clustering Es wird ein geeignetes Abbruchkriterium benötigt. k ist nur eine, einfache Möglichkeit. Besser: Dann abbrechen, wenn Unterschied zwischen Supercluster und Kindclustern besonders groß. Es kann auch die gesamte Hierarchie berechnet werden um anschließend die Anzahl der Cluster zu bestimmen. Funktionsweise Agglomeratives Clustering Wichtige Datenstruktur: Matrix mit Distanzen zwischen den Clustern Initialisiert mit Distanzen zwischen einzelnen Datenobjekten 17

Basisalgorithmus Agglomeratives Clustering Gegeben: Gesucht: Lerndatensatz, Abstandsmaß, Strategie zur Cluster-Abstand-Berechnung Gesamte Cluster-Hierarchie (Dendrogramm) Algorithmus: 1. Berechne die Distanz-Matrix 2. Betrachte jeden Datenpunkt als Cluster 3. Vereinige die zwei Cluster mit minimalem Abstand 4. Aktualisiere die Distanz-Matrix 5. Wiederhole Schritt 3 und 4 solange mehr als ein Cluster Anschließend: Bestimmung der Anzahl der Cluster mittels Dendrogramm. 18

Illustration agglomeratives Clustering Entfernungsmatrix mit Datenpunkten x 1 x 4 (euklidische Centroid-Abstände) x 1 x 1 5,39 0 4,12 5,00 x 4 x 2 0 4,00 6,32 x 3 0 2,83 x 4 0 Verschmelzen von x 3 und x 4 zu neuem Cluster x 34. x 2 x 3 x 2 x 3 x 1 x 4 x 1 x 2 x 1 5,00 0 4,12 x 34 x 2 0 5,10 x 34 0 Welche Tupel/Cluster werden als nächstes verschmolzen? x 2 x 3 x 34 x 4 x 1 x 34 repräsentiert Cluster-Zentrum (Centroid). 19

Dendrogramm zum Beispiel x 2 x 3 x 4 x 1 20

Assoziationsregeln

Motivation - Warenkorbanalyse Gesucht: Einkaufsgewohnheiten Höhere Kundenzufriedenheit durch günstige Anordnung Höherer Absatz durch ungünstige Anordnung Warenkörbe (Beispiel) Bier Windeln Brot Kunde 1 Eier Zucker Brot Bier Brot Windeln Bier Kunde 3 Zucker Eier Kunde 2 Kunde 4 Fragestellung: Welche Kombinationen werden häufig gekauft (Frequent Itemsets)? 22

Assoziationsregeln Darstellung von Assoziationsregeln Antecedent X Consequent Y Wahrscheinlichkeitsbasierter Charakter Consequent Y ist mit der Wahrscheinlichkeit P wahr, wenn der Antecedent X wahr ist Bedingte Wahrscheinlichkeit P(Y X)! Zugelassene Wertebereiche Besonders geeignet für kategorische Daten Möglichkeit Grenzwerte für kontinuierliche Werte zu setzen 23

Motivation Warenkorbanalyse II Warenkörbe Bier Brot Windeln Windeln Brot Eier Zucker Bier Kunde 1 Brot Bier Kunde 3 Frequent Itemsets (mit mind. 2 Items) {Brot, Bier}, {Brot, Bier, Windeln}, {Zucker, Eier}, {Bier, Windeln}, {Brot, Windeln} Wie lassen sich aus Frequent Itemsets Assoziationsregeln ableiten? Beispiel: Wer Windeln kauft, kauft auch Brot Zucker Eier Kunde 2 Kunde 4 24

Wichtige Begriffe - Support Alternative Namen Häufigkeit, Abdeckung Angabe bezüglich der Häufigkeit eines Portfolios Anzahl bzw. Anteil der Transaktionen, die X Y enthalten Formal: P(X Y) Beispiel: Die Kombination Windeln, Bier tritt in 50% der Warenkörbe auf. Support = 50% 25

Wichtige Begriffe Confidence Alternative Namen Genauigkeit Überraschungsmass Wenn eine Transaktion X enthält, dann auch Y (mit gegebener Genauigkeit) Formal: P(Y X) = X Y / X Beispiel: Wenn Windeln gekauft wurden, wurde in 100% aller Fälle auch Bier gekauft Confidence = 100% Ziel: Finden von Regeln mit hohem Support (support > minsup) und hoher Confidence (confidence > minconf) 26

Warenkörbe Beispiel - Warenkorbanalyse Bier Brot Windeln Windeln Brot Eier Zucker Bier Kunde 1 Brot Bier Kunde 3 Frequent Itemsets (minsup = ½) {Brot, Bier} (Support = ¾); {Brot, Bier, Windeln} (Support = ½); {Zucker, Eier} (Support = ½); {Bier, Windeln} (Support = ½); {Brot, Windeln} (Support = ½) Assoziationsregeln (Auswahl) Brot Bier (Confidence = 100%) Brot, Bier Windeln (Confidence = 67%) Zucker Eier (Confidence = 100%) Zucker Eier Kunde 2 Kunde 4 27

A-Priori Eigenschaft Itemset häufig, wenn Supermenge häufig Beispiel: {Bier, Windeln, Brot} häufig {Bier, Windeln}, {Bier, Brot}, {Windeln, Brot} und {Bier}, {Windeln}, {Brot} häufig Itemset kann nur häufig sein, wenn alle Teilmengen häufig Dadurch: Bestimmung von Frequent Itemset Kandidaten mit n Elementen aus solchen mit (n - 1) Elementen möglich 28

A-Priori Algorithmus Frequent Itemsets Finden aller Itemsets mit ausreichendem Support: Beginn mit ein-elementigen Sets (1)-Sets: einfaches Abzählen Berechnung der k-sets aus den (k-1)-sets: Join-Step: Ermittlung von Kandidaten; Aus A-Priori Eigenschaft: Alle (k-1)-elementigen Teilmengen eines k-sets sind (k-1)-sets, Prune-Step: Löschen aller Kandidaten, die eine unzulässige (k-1)-elementige Teilmenge haben. Support Counting, d. h. Abzählen, wie häufig die Kandidaten wirklich sind. 29

A-Priori Frequent Itemset (Bsp.) I Beispieltupel: {A, B, E} {B, D} {B, C} {A, B, D} {A, C, D} {B, C} {A, C} {A, B, C, E} {A, B, C} MinSup: 2/9, d.h. Itemset ist häufig, wenn 2 Tupel es enthalten 30

A-Priori Frequent Itemset (Bsp.) II Ein-elementige Frequent Itemsets {A}: 6 {B}: 7 {C}: 6 {D}: 3 {E}: 2 D.h. Alle Items sind häufig! Beispieltupel: {A, B, E} {B, D} {B, C} {A, B, D} {A, C, D} {B, C} {A, C} {A, B, C, E} {A, B, C} 31

A-Priori Frequent Itemset (Bsp.) III Ein-elementige Frequent Itemsets {A}: 6, {B}: 7, {C}: 6, {D}: 3, {E}: 2 Zwei-elementige Frequent Itemsets {A, B}: 4 {A, C}: 4 {A, D}: 2 {A, E}: 2 {B, C}: 4 {B, D}: 2 {B, E}: 2 {C, D}: 1 {C, E}: 1 {D, E}: 0 Beispieltupel: {A, B, E} {B, D} {B, C} {A, B, D} {A, C, D} {B, C} {A, C} {A, B, C, E} {A, B, C} 32

A-Priori Frequent Itemset (Bsp.) IV Zweielementige Frequent Itemsets {A, B}: 4, {A, C}: 4, {A, D}: 2, {A, E}: 2, {B, C}: 4, {B, D}: 2, {B, E}: 2 Dreielementige Frequent Itemsets {A, B, C}: 2 {A, B, D}: 1 {A, B, E}: 2 {A, C, D} {A, C, E} {A, D, E} {B, C, D} {B, C, E} {B, D, E} Beispieltupel: {A, B, E} {B, D} {B, C} {A, B, D} {A, C, D} {B, C} {A, C} {A, B, C, E} {A, B, C} 33

A-Priori Frequent Itemset (Bsp.) V Drei-elmentige Frequent Itemsets {A, B, C}: 2, {A, B, E}: 2 Vier-elementige Frequent Itemsets {A, B, C, E} Beispieltupel: {A, B, E} {B, D} {B, C} {A, B, D} {A, C, D} {B, C} {A, C} {A, B, C, E} {A, B, C} 34

A-Priori Assoziationsregeln Assoziationsregel-Kandidaten Aufteilen der Frequent Itemsets in Antecedents und Consequents Berechnung der Confidence pro Kandidat Erfüllt Kandidat gegebene minimal Confidence Association Rule Sonst verwerfen Modifikation: Andere Evaluierungsmasse Chi-Quadrat-Maß, Informationsgewinn, 35

A-Priori Assoziationsregeln (Bsp.) Gesucht Assoziationsregeln mit mind. 2 Antecedents MinConf = 5/9 Frequent Itemsets mit 3 oder mehr Elementen: {A, B, C} {A, B, E} Mögliche Assoziationsregeln A, B C; Confidence = 2/4 A, C B; Confidence = 2/4 B, C A; Confidence = 2/4 A, B E; Confidence = 2/4 A, E B; Confidence = 2/2 B, E A; Confidence = 2/2 Beispieltupel: {A, B, E} {B, D} {B, C} {A, B, D} {A, C, D} {B, C} {A, C} {A, B, C, E} {A, B, C} 36

Generate & Test: A-Priori Nachteile Schon das Generieren kann teuer sein Eventuell viele falsche Kandidaten (trotz A-Priori!) Überprüfen vieler Kandidaten ist teuer Ein DB-Scan pro Iteration Lösung: Intelligentere Algorithmen und Datenstrukturen (siehe Vorlesung) 37

Quellen J. Han und M. Kamber: Data Mining: Concepts and Techniques, Morgan Kaufmann, 2006. C. Borgelt: Folien zur Vorlesung Intelligent Data Analysis, 2004. F. Klawonn: Folien zur Vorlesung Data Mining, 2006. P.-N. Tan, M. Steinbach und V. Kumar: Folien zur Vorlesung Introduction to Data Mining, 2004 M. Matteucci: A Tutorial on Clustering Algorithms, http://www.elet.polimi.it/upload/matteucc/clustering/tutorial_html (s. interactive demo zu k-means als Java Applet) 38