Rückblick. Wenn k-dimensionale Zelle C nicht dicht, dann alle (k+1)-dimensionalen Zellen, in denen C als Unterzelle enthalten ist, nicht dicht



Ähnliche Dokumente
Exploration und Klassifikation von BigData

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen

Professionelle Seminare im Bereich MS-Office

Anmerkungen zur Übergangsprüfung

Primzahlen und RSA-Verschlüsselung

1 topologisches Sortieren

Kapitel 3: Projected, Corelation und Subspace Clustering

Plotten von Linien ( nach Jack Bresenham, 1962 )

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Lichtbrechung an Linsen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Berechnung der Erhöhung der Durchschnittsprämien

Korrelation (II) Korrelation und Kausalität

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Clustering Seminar für Statistik

Lineare Gleichungssysteme

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

1 Mathematische Grundlagen

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Abiturprüfung Mathematik 2008 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1

Mit dem Tool Stundenverwaltung von Hanno Kniebel erhalten Sie die Möglichkeit zur effizienten Verwaltung von Montagezeiten Ihrer Mitarbeiter.

Informationsblatt Induktionsbeweis

DPF Dynamic Partial distance Function

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Wie löst man Mathematikaufgaben?

4 Aufzählungen und Listen erstellen

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Zeichen bei Zahlen entschlüsseln

Die Übereckperspektive mit zwei Fluchtpunkten

Statistische Auswertung:

Whitepaper. Produkt: combit Relationship Manager 7. combit Relationship Manager -rückläufer Script. combit GmbH Untere Laube Konstanz

Beispiel Zusammengesetzte Zufallsvariablen

Willkommen zur Vorlesung Statistik

Häufige Item-Mengen: die Schlüssel-Idee. Vorlesungsplan. Apriori Algorithmus. Methoden zur Verbessung der Effizienz von Apriori

Kapitel 4 Die Datenbank Kuchenbestellung Seite 1

Konzepte der Informatik

AZK 1- Freistil. Der Dialog "Arbeitszeitkonten" Grundsätzliches zum Dialog "Arbeitszeitkonten"

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Erstellen von x-y-diagrammen in OpenOffice.calc

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Modellbildungssysteme: Pädagogische und didaktische Ziele

Vorlesung Dokumentation und Datenbanken Klausur

6.2 Scan-Konvertierung (Scan Conversion)

Data Mining: Einige Grundlagen aus der Stochastik

SANDBOXIE konfigurieren

Access [basics] Rechnen in Berichten. Beispieldatenbank. Datensatzweise berechnen. Berechnung im Textfeld. Reporting in Berichten Rechnen in Berichten

Simulation LIF5000. Abbildung 1

Grundlagen der Theoretischen Informatik, SoSe 2008

Überblick. Lineares Suchen

Musterlösungen zur Linearen Algebra II Blatt 5

Theoretische Grundlagen der Informatik

Ihre Interessentendatensätze bei inobroker. 1. Interessentendatensätze

QM: Prüfen -1- KN

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Extrema von Funktionen in zwei Variablen

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

7 Rechnen mit Polynomen

Theoretische Grundlagen der Informatik WS 09/10

Web-Kürzel. Krishna Tateneni Yves Arrouye Deutsche Übersetzung: Stefan Winter

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel

Repetitionsaufgaben Wurzelgleichungen

Eigenwerte und Eigenvektoren von Matrizen

Programmentwicklungen, Webseitenerstellung, Zeiterfassung, Zutrittskontrolle

Speicher in der Cloud

14. Minimale Schichtdicken von PEEK und PPS im Schlauchreckprozeß und im Rheotensversuch

SICHERN DER FAVORITEN

Reporting Services und SharePoint 2010 Teil 1

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Festigkeit von FDM-3D-Druckteilen

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Zahlen und das Hüten von Geheimnissen (G. Wiese, 23. April 2009)

Lineare Gleichungssysteme

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Seminar Komplexe Objekte in Datenbanken

Physik & Musik. Stimmgabeln. 1 Auftrag

ACDSee Pro 2. ACDSee Pro 2 Tutorials: Übertragung von Fotos (+ Datenbank) auf einen anderen Computer. Über Metadaten und die Datenbank

Kapitalerhöhung - Verbuchung

Folge 19 - Bäume Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

sondern alle Werte gleich behandelt. Wir dürfen aber nicht vergessen, dass Ergebnisse, je länger sie in der Vergangenheit

3. LINEARE GLEICHUNGSSYSTEME

R-Baum R + -Baum X-Baum M-Baum

Handbuch zur Anlage von Turnieren auf der NÖEV-Homepage

Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20

Wie Google Webseiten bewertet. François Bry

Die Methode des Robusten Trends und der CAC40 (Frankreich)

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang

Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken.

Transkript:

Subspace Clustering CLIQUE: Rückblick Datenraum wird in Zellen der Breite ξ zerlegt. Eine Zelle ist dicht, wenn sie mind. τ Punkte enthält. Zusammenhängende Zellen bilden Cluster Unterraumsuche: - bottom-up (ähnlich Apriori) - Monotoniekriterium für dichte Zellen: Wenn k-dimensionale Zelle C nicht dicht, dann alle (k+1)-dimensionalen Zellen, in denen C als Unterzelle enthalten ist, nicht dicht Nachfolgeverfahren: ENCLUS, MAFIA 243 Subspace Clustering Dichte-verbundenes Subspace Clustering Motivation: Nachteil der gitterbasierten Ansätze Wahl von ξ und τ Cluster für τ = 4 (ist C2 Cluster?) Für τ > 4: keine Cluster (insb. C1 geht verloren!) C1 C2 Verwende dichte-verbundenes Clustering (DBSCAN) 244

Subspace Clustering Rückblick: Dichte-verbundene Cluster (DBSCAN) Kernpunkt: Mehr als MinPts Punkte in der ε-nachbarschaft MinPts = 4 Direkt dichte-erreichbar (p von q): q Kernpunkt und p in der ε-nachbarschaft von q p q Dichte-erreichbar (p von q): Es gibt eine Kette direkt dichte-erreichbaren Punkte von q nach p p q 245 Subspace Cluster Dichte-verbunden (p und q): Es gibt Punkt o, sodass sowohl p als auch q dichte-erreichbar von o Dichte-verbundene Menge: Menge von (miteinander) dichte-verbundenen Punkten Dichte-verbundene Cluster: Dichte-verbundene Menge, die maximal ist bzgl. Dichte-Erreichbarkeit, d.h. p,q: wenn p C und q dichte-erreichbar von p ist, dann ist auch q C. 246

Subspace Clustering SUBCLU (Dichte-verbundenes Subspace Clustering) [Kailing, Kriegel, Kröger 2004] Berechne dichte-verbundene Subspace Cluster Vorteile: Clusterbegriff mathematisch sauber formuliert Zuordnung der (Kern-) Punkte zum Cluster eindeutig Erkennen von Clustern unterschiedlicher Größe und Form Gesucht: Effiziente Strategie, um die dichte-verbundenen Cluster in allen Unterräumen (bzgl. ε und MinPts) zu berechnen Nutze Greedy-Ansatz wie bei CLIQUE: generiere bottom-up alle Subspace Cluster Dazu notwendig: Monotoniekriterium für dichte-verbundene Cluster 247 Subspace Clustering Monotonie dichte-verbundener Cluster Gilt leider nicht: Sei C ein dichte-verbundener Cluster im Unterraum S Sei T S ein Unterraum von S C muss nicht mehr maximal bzgl. Dichte-Erreichbarkeit sein Es kann Punkte geben, die nicht in C sind, aber im Unterraum T dichteerreichbar von einem Objekt in C sind B C C ist ein dichte-verbundener Cluster im Unterraum {A,B} q p p C und q C Im Unterraum {B} ist p (direkt) dichte-erreichbar von q C A 248

Subspace Clustering Monotonie dichte-verbundener Mengen Wenn C eine dichte-verbundene Menge im Unterraum S ist, so ist C auch eine dichte-verbunden Menge in allen Teilräumen T S A MinPts = 4 ε A q o q p p p und q dichte-verbunden in {A,B}, {A} und {B} B p und q nicht dichte-verbunden in {B} und {A,B} B 249 Subspace Clustering Algorithmus Generiere alle 1-dimensionalen dichte-verbundenen Cluster Für jeden k-dimensionalen Cluster muss nun geprüft werden, ob er in einem (k+1)-dimensionalen Oberraum noch vorhanden ist: Gegeben: - Sk: Menge der k-dimensionale Unterräume in denen Cluster existieren - CS: Menge der Cluster im Unterraum S - Ck: Menge aller Mengen von Cluster in k-dimensionalen Unterräumen Ck = {CS S ist k-dimensionaler Unterraum} Vorgehen: - Bestimme (k+1)-dimensionale Kandidatenunterräume Cand aus Sk - Für einen beliebigen k-dimensionalen Unterraum U Cand : Bestimme für alle k-dimensionalen Cluster c in U (c CU) die (k+1)- dimensionalen Fortsetzungen durch die Funktion DBSCAN(c, U, ε, MinPts) 250

Subspace Clustering A2 A Funktion DBSCAN(D, U, ε, MinPts) berechnet alle dichte-verbundenen Cluster bzgl. ε und MinPts einer Datenmenge D im Unterraum U A1 B1 B2 B3 B S1 = {{A}, {B}} C{A} = {A1, A2} C{B} = {B1, B2, B3} C1 = {C{A}, C{B}} Heuristische Optimierungsmöglichkeit: - DBSCAN(c, U, ε, MinPts) nicht für zufälligen U Cand aufrufen, sondern für den Unterraum U, in dem die Gesamtanzahl der Punkte in den Clustern (also der Punkte in CU) am geringsten ist (im Beispiel: U = {B}) - Dadurch wird die Anzahl der Range-Queries beim DBSCAN-Lauf minimiert (im Beispiel um 2) 251 Subspace Clustering Experimente Skalierbarkeit: superlinear in Anzahl der Dimensionen und Anzahl der Objekte ABER: Findet mehr Cluster als CLIQUE 252

Subspace Clustering RIS (Ranking Interesting Subspaces) [Kailing, Kriegel, Kröger, Wanka 2003] Probleme von SUBCLU: Verschiedene Cluster in einem Unterraum können verschieden dicht sein a 4 A B C 1 C C C 3 2 a 3 Cluster aus verschiedenen Unterräumen können verschieden dicht sein a 2 C 2 a 1 C 1 C 2 a 1 253 Subspace Clustering Idee von RIS: Berechne nicht mehr direkt die Subspace Cluster Sondern: berechne nur die Unterräume, die interessante Cluster enthalten - Was sind interessante Cluster/Unterräume? - Qualitätskriterium für Unterräume RIS gibt eine Liste von Unterräumen aus, sortiert nach Qualität Die eigentlichen Cluster können durch ein beliebiges Cluster-Verfahren für die interessanten Unterräume erzeugt werden 254

Subspace Clustering Interessante Unterräume: Cluster enthalten mindestens einen Kernpunkt Unterraum, der keinen Kernpunkt enthält, kann nicht interessant sein Anzahl der Kernpunkte ist proportional zur - Anzahl der verschiedenen Cluster und/oder - Größe der Cluster und/oder - Dichte der Cluster Anzahl size density 255 Subspace Clustering Algorithmus RIS: 1. Berechne für jeden Punkt p der Datenbank die Unterräume, in denen p noch Kernpunkt ist Berechnet alle relevanten Unterräume 2. Sammle für jeden berechneten Unterraum statistische Informationen um über die Interessantheit des Unterraumes entscheiden zu können Qualität der Unterräume (z.b. Anzahl der Kernpunkte) Sortierung der Unterräume nach Interessantheit möglich 3. Entferne Unterräume, die redundante Informationen enthalten Cluster in einem Unterraum S sind in allen Unterräumen T S enthalten 256

Subspace Clustering Schritt 1 Suche Unterräume, die mindestens einen Kernpunkt enthalten: Monotonie der Kernpunkteigenschaft: Wenn p ein Kernpunkt in Featureraum S ist, dann ist p auch ein Kernpunkt in allen Unterräumen T S Wenn p in T kein Kernpunkt ist, kann p auch in allen S T kein Kernpunkt sein. Suchstrategie von CLIQUE und SUBCLU wieder verwendbar 257 Subspace Clustering Schritt 2 Qualität der gefundenen Unterräume: count[s] = Summe (der Anzahl) aller Punkte, die in der ε-nachbarschaft aller Kernpunkte eines Unterraumes S liegen NaiveQuality(S) = count[s] Kernpunkte(S) - Anzahl der erwarteten Punkte in einer ε-nachbarschaft sinkt mit steigender Dimension - NaiveQuality favorisiert niedrig dimensionale Unterräume Skalierung in Abhängigkeit der Dimensionalität: - Periodische Randbedingungen um Punkte, die am Rand des Datenraumes liegen, nicht zu benachteilen 258

Subspace Clustering Schritt 3 Entfernen redundanter Unterräume: Überflüssige Unterräume: - Cluster im Raum S haben eine Projektion in Unterräumen von S - Durch die Hinzunahme von irrelevanten Dimensionen muss ein Cluster zunächst noch nicht verschwinden Pruning-Schritte: - Abwärts-Pruning: Wenn es einen (k-1)-dimensionalen Unterraum S mit einer höheren Qualität als ein k-dimensionaler Unterraum T (T S) gibt, lösche T. - Aufwärts-Pruning: Wenn der Count-Wert eines echten (k-1)-dimensionaler Unterraumes von S besonders stark vom Mittelwert der Count-Werte aller echten (k-1)-dimensionalen Unterräume von S abweicht, lösche S 259 Subspace Clustering Experimentelle Untersuchung Laufzeit in Abhängigkeit von n Laufzeit in Abhängigkeit von d Skaliert superlinear in n und d Random Sampling auch bei kleinen Samplegrößen hohe Qualität Laufzeit in Abhängigkeit der Samplegröße 260

Subspace Clustering Vorteile: Diskussion Findet alle Unterräume, in denen interessante Cluster vorhanden sind Erzeugen von Subspace Clustern unterschiedlicher Dichte möglich (z.b. indem man in den gefundenen Unterräumen mit OPTICS clustert ) Nachteile: Problem, das Cluster in verschieden dimensionalen Unterräumen meist unterschiedlich dicht sind, ist immer noch nicht gelöst Trotz Dimensions-Anpassung des Qualitätskriteriums: ε begrenzt die Dimension der gefunden Unterräume nach oben: je kleiner ε desto niedriger dimensional die Unterräume, die gefunden werden 261 Subspace Clustering SURFING (Subspaces Relevant for Clustering) [Kailing, Kriegel, Kröger (subm.)] Idee: Berechne interessante Unterräume Unabhängigkeit von einem globalen Dichteparameter für verschiedene Cluster und verschiedene Unterräume ohne die dichte-basierte Vorstellung von Clustern komplett aufzugeben OPTICS: - Unabhängig von einem globalen Dichteparameter - Dichte-basiertes Cluster-Modell - Kerndistanz (Distanz zum k-nächsten Nachbarn) und Erreichbarkeitsdistanz als Maß für lokale Dichte - Je kleiner Kerndistanz, desto dichter sind die Punkte lokal - Je größer Kerndistanz, desto weniger dicht sind die Punkte lokal Kleine 10-nächste Nachbarn Distanz Grosse 10-nächste Nachbarn Distanz 262

Subspace Clustering Die Qualität der hierarchischen Clusterstruktur eines Unterraumes kann anhand der k-nn-distanzen aller Punkte vorhergesagt werden: - Viele unterschiedliche k-nn-distanzen signifikante (hierarchische) Clusterstrukturen - Viele ähnliche k-nn-distanzen kaum (hierarchische) Clusterstrukturen Sortierte 3-nn-Distanzen Sortierte 3-nn-Distanzen mean mean 263 Subspace Clustering Qualititätskriterium für Unterräume Varianz der k-nn-distanzen in einem Unterraum: - Nachteil: berücksichtigt die quadrierten Differenzen zum Mittelwert Summe der Differenzen DIFF unterhalb des Mittelwertes: - Nachteil: nicht unabhängig von der Dimension Verhältnis aus DIFF zum Mittelwert µ: - Nachteil: Mittelwert ist nicht vollständig robust gegenüber Ausreißern und kleinen sehr dichten Clustern Mittelwert wird durch einige wenige Ausreißer nach oben verschoben DIFF unverhältnismäßig hoch DIFF/µ unverhältnismäßig zu hoch Mittelwert wird durch wenige kleine sehr dichte Cluster nach unten verschoben DIFF unverhältnismäßig klein DIFF/µ unverhältnismäßig zu klein Skalierung mit der relativen Anzahl der Punkte, deren k-nn-distanz unterhalb des Mittelwertes liegt (bezeichnet als Below) 264

Subspace Cluster Qualität eines Unterraums: DIFF µ Quality = = Below N DIFF N Below µ DIFF = Summe der Differenzen der k-nn-distanzen unterhalb von µ zum Mittelwert µ = Mittelwert der k-nn-distanzen Below = Anzahl der Punkte, die eine k-nn-distanz unterhalb von µ haben N = Anzahl der Datensätze 265 Subspace Clustering Algorithmus SURFING Qualitätskriterium ist nicht monoton!!! ABER: Qualität steigt, wenn relevante Attribute hinzu kommen bzw. sinkt, wenn irrelevante Attribute hinzukommen Bottom-up Unterraum Generierung ähnlich wie Apriori, aber kein Pruning bei der Kandidatengenerierung mehr Kandidaten in jeder Iteration zu Testen Heuristisches Pruningkriterium um möglichst viele Unterräume zu löschen (dadurch wird Anzahl der Kandidaten reduziert) Komplexität: O(N 2 m) m = # generierter Unterräume 266

Subspace Clustering Parameterwahl SURFING hängt nur noch von k ab!!! Wahl von k relativ einfach: k = 1 (zu klein) k = 5 (richtig) k = 10 (zu groß) 267 Subspace Clustering Fazit SURFING ist dank der Pruning-Heuristik sehr effizient (meist werden nur knapp 1% aller möglichen Unterräume erzeugt) SURFING ist mehr oder weniger parameterfrei (Wahl von k relativ einfach und bei großen, hochdimensionalen Daten typischerweise nicht kritisch) SURFING erzielt (in Zusammenarbeit mit einem hierarchischen Clustering-Algorithmus) bessere experimentelle Ergebnisse als CLIQUE, SUBCLU oder RIS, speziell wenn: Cluster in stark verschieden dimensionalen Unterräumen existieren Hierarchische und unterschiedlich dichte Cluster existieren 268

Subspace Clustering Zusammenfassung CLIQUE, ENCLUS, MAFIA - Grid-basiertes Clustermodell - Direkte Berechnung der Cluster SUBCLU - Dichte-verbundenes Clustermodell - Direkte Berechnung der Cluster RIS - Dichte-verbundenes Clustermodell - Ranking der Unterräume anhand ihrer Qualität (flaches Clustering) SURFING - Dichte-verbundenes Clustermodell - Ranking der Unterräume anhand ihrer Qualität (hierarchisches Clustering) Globaler Dichteparameter Lokal adaptiver Dichteparameter 269 5.5 Correlation Clustering Clustering... Korrelation... 26.6 Einteilung der Punktemenge in Gruppen (Cluster), so dass... Maximale Ähnlichkeit der Punkte innerhalb der Cluster Minimale Ähnlichkeit der Punkte versch. Cluster y 0.5 x +... (lineare) Abhängigkeit zwischen den einzelnen Attributen (Dimensionen) einer Punktemenge 270

Probleme der Korrelation Rausch-Punkte Verschiedene Teilmengen weisen unterschiedliche Korrelationen auf schwache Gesamt-Korrelation 271 Probleme der Korrelation Krankheit 2 Krankheit 1 Ziel: Suche nach Teilmengen von Punkten mit einheitlicher Korrelation 272

Dichtebasiertes Clustering Trennt grundsätzlich auch Correlation Cluster von Rauschpunkten Separiert aber nicht nach unterschiedlicher Regressionslinie 273 Informelle Definition Ein Korrelations-verbundener Cluster ist eine Punktmenge mit... einheitlicher Punktdichte (bzw. Dichte-Schwellwert) einheitlicher Korrelation (Regressionslinie) d.h. ein Correlation-Clustering-Verfahren soll Punktdichte und Korrelation innerhalb von Clustern maximieren zwischen separierten Clustern minimieren 274

Idee für Correlation Clustering Algorithmus Erweiterung von dichtebasiertem Clustering DBSCAN OPTICS Oder eines anderen Verfahrens ggf. unter Einführung neuer Parameter (Dimension der Korrelation) Möglichkeiten, Korrelation ins Spiel zu bringen Adaptives Ähnlichkeitsmaß Fraktale Dimension Hough-Transformation 275 Adaptives Ähnlichkeitsmaß [Böhm, Kailing, Kröger, Zimek: Computing Clusters of Correlation Connected Objects, subm.] DBSCAN beruht im wesentlichen auf zwei Konzepten: Kernpunkte: Punkte, in deren ε-umgebung sich mindestens MinPts Punkte befinden Dichte-Verbundenheit: Kernpunkte werden mit Nachbarn in der ε-umgebung vereinigt Idee von 4C (Computing Correlation Connected Clusters): Anpassung dieser Konzepte von DBSCAN, so dass nach korrelierten Punktmengen gesucht wird Dimension λ der Korrelation durch den Benutzer vorgegeben: λ = 1 für Korrelations-Linien λ = 2 für Korrelations-Ebenen usw. 276

Kernpunkte bei 4C Zusätzlich zur Forderung, dass sich in der ε-umgebung mindestens MinPts Nachbarn befinden müssen: Die Punkte in der ε-umgebung eines Kernpunktes müssen sich...auf (bzw. in der Nähe) einer gemeinsamen Linie (im Fall λ=1),...einer gemeinsamen Ebene (im Fall λ=2),...einer gemeinsamen λ-dimensionalen Hyperebene (im Fall λ>2) durch den Kernpunkt befinden. Dies lässt sich mathematsch wie folgt bestimmen: Berechnung Kovarianzmatrix Σ der Nachbarn Eigenwert-Zerlegung (Principal Components) V E V T = Σ Mindestens d λ Eigenwerte müssen 0 sein ε-umgebung Kernpunkt Hierdurch wird jedem Kernpunkt eine Kovarianzmatrix zugeordnet 277 Dichte- (bzw. Korrelations-) Verbundenheit Prinzip: Nur solche Punkte sollen mit einem Cluster vereinigt werden, die auch in der bisherigen Ausdehungsrichtung (d.h. nahe zur Korrelationslinie, -Ebene usw.) liegen Wie kann dieses Ähnlichkeitsmaß erreicht werden? Ähnlichkeitsmaß entspricht Kovarianzmatrix: dist 2 (P,Q) = (P Q) Σ (P Q) T Σ Richtungen starker Varianz werden durch das Ähnlichkeitsmaß stark gewichtet. Ansatz genau kontraproduktiv! 278

Dichte- (bzw. Korrelations-) Verbundenheit Kovarianzmatrix mit invertierten Eigenwerten: dist 2 (P,Q) = (P Q) V E -1 V T (P Q) T Anmerkung: Diagonalmatrizen werden elementweise invertiert: diag(a 1,a 2,...) 1 = diag(1/a 1,1/a 2,...) Ausrichtung des Ellipsoids nun korrekt! Probleme: Was macht man mit Eigenwerten =0 (also keine Varianz in dieser Richtung)? Ausdehnung des Ellipsoids in allen Richtungen verschieden und nicht klar definiert 279 Dichte- (bzw. Korrelations-) Verbundenheit Gewünscht: Ellipsoid mit folgenden Eigenschaften Ausrichtung gemäß den stärksten Eigenvektoren Ausdehnung ε in λ Richtungen Eine einheitliche, wesentlich geringere Ausdehung, die eine gewisse Toleranz erlaubt, in den verbleibenden d λ Richtungen Die Eigenwertmatrix wird wie folgt modifiziert: Die ersten λ Eigenwerte werden auf 1 gesetzt (Ellipsoid ist definiert als {x dist (P,x) ε}) Die verbleibenden d λ Eigenwerte auf κ (κ >>1 Benutzer-definierter Wert) Distanzmaß mit modifiziertem E : dist 2 (P,Q) = (P Q) V E V T (P Q) T 280

Unsymmetrische Metrik Beobachtung: Das Abstandsmaß ist nicht symmetrisch, da immer die modifiz. Kovarianzmatrix, die einem der beiden beteiligten Kernpunkte zugeordnet ist, das Abstandsmaß definiert. Problem: Hierdurch wird das Clusterverfahren Reihenfolge-abhängig Lösung: Vereinige Punkte nur dann, wenn sie sich gegenseitig finden, also: dist P (P,Q) ε und dist Q (Q,P) ε P P Q P von Q aus direkt dichte-erreichbar Q P von Q aus nicht direkt dichte-erreichbar 281 Algorithmus 4C (ε, MinPts, λ) Für alle Objekte o aus der Datenbank: Schritt 1: Test auf Korrelations-Kernobjekt berechne ε-umgebung N ε (o) von o; Wenn N ε (o) MinPts berechne Σ; Wenn (d-λ) Eigenwerte 0 berechne E ; berechne ε-umgebung N ε(o) von o bzgl. E ; teste N ε(o) MinPts; Schritt 2: Expandiere Cluster berechne alle Punkte, die korrelations-dichte-erreichbar von o sind; - ähnlich wie DBSCAN - benutze dabei E als Distanzmaß - achte auf Symmetrie 282

Ergebnisse: Accuracy 300 250 Laufzeit 10d Datensatz (3 Cluster + Noise) Dataset (Transposed View) Cluster 1 runtime (s x 1,000) 200 150 100 50 0 0 50 100 150 200 250 300 350 400 database size (x 1,000) Cluster 2 3d Datensatz (3 Cluster + Noise) Noise Cluster 3 283 Ergebnisse: Accuracy Vergleich mit ORCLUS 4C 43d Metabolome Data (6 sample cluster in transposed view) LCHAD PKU control PKU ORCLUS (k=3) control PKU 284

Ergebnisse: Vergleich mit DBSCAN Clusters found by DBSCAN Clusters found by 4C 285 Performanz Komplexität ohne Indexunterstrützung: Für jeden (Kern-) Punkt ist das zugeordnete Ähnlichkeitsmaß (die modifizierte Kovarianzmatrix) zu ermitteln: Ermittlung der Kovarianzmatrix: O(nd 2 ) Eigenwert-Zerlegung der Kovarianzmatrix: O(d 3 ) DBSCAN wertet je eine Bereichsanfrage pro Punkt aus: Auswertung mit modifizierter Kovarianzmatrix: O(nd 2 ) Gesamtkomplexität: O(n 2 d 2 +d 3 n) Komplexität mit Indexunterstützung: Bereichsanfrage reduziert sich auf O(d 2 log n) Gesamt-Komplexität: O(d 2 n log n + d 3 n) 286

Diskussion Stärken Erstes Verfahren, das Teilmengen in einer Menge von Merkmalsvektoren ermittelt, die einheitliche Korrelation aufweisen (mit Ausnahme von ORCLUS, dessen orientierte Cluster ähnlich funktionieren) Wesentlich bessere Ergebnisse als ORCLUS (k-means) Schwächen Mengen müssen zusätzlich zur Korrelation auch Dichte-verbunden sein (Parameter ε) (zurzeit noch) nicht hierarchisch 4C-OPTICS? Dimensionalität λ der Korrelation muss vorgegeben werden Findet nur lineare Abhängigkeiten Punkte können nur einem Cluster zugeordnet sein 287 Alternativ-Ansatz: Fraktale Dimension Bei Korrelationen ergibt sich charakteristische Abhängigkeit zwischen Volumen und Anzahl eingeschlossener Punkte: Ohne Korrelation: Mit Korrelation: N ~ r 2 N ~ r 1 Dieser Effekt ist unabhängig davon, ob die Abhängigkeit linear oder nicht-linear ist. 288

Ermittlung der fraktalen Dimension Auswertung einer k-nearest- Neighbor-Query für k ={1,2,...,k max } Auftragen der k-nn-distanzen in doppelt logarithmischem Maßstab Ergibt sich annähernd eine Gerade, dann entspricht die Steigung der Gerade der fraktalen Dimension 289 Fazit zur fraktalen Dimension Klare Unterscheidung zwischen korrelierten und nicht korrelierten Punktmengen nur in der Theorie Für die Clustering-Anwendung als Zusatz-Kriterium evtl. brauchbar Idee: OPTICS-Plot um fraktale Dimension erweitern: 290

Hough-Transformation Standard-Methode zur Linien-Segmentation in 2d Bildern y t y = m x + t +1 x m Bei höheren Dimensionen so nicht machbar zu viele freie Parameter Arraygröße exponentiell in Dimension 291 Modifikation des Verfahrens y t y = m x + t Linie x Betrachte Paare (bzw. Tripel, Quadrupel) von Punkten nahe beieinander liegend oder zufallsbasiert Transformiere in Parameterraum Konventionelles Clustering im transformierten Raum m 292

Modifizierte Hough-Transformation Merkmals-Raum: Transformierter Raum: 293 Zusätzliche Erweiterungsmöglichkeiten DBSCAN durch OPTICS ersetzen, um Hierarchien von Korrelations-verbundenen Punktmengen zu ermitteln Oder alternative Cluster-Methoden einsetzen (eigentlich sind beliebige Shapes hier nur begrenzt erwünscht) Transformation in polynomialen Vektorraum, um auch nichtlineare Abhängigkeiten zu finden: (x,y,z) (x,y,z,x 2,y 2,z 2,xy,xz,yz), wie bei SVMs Nutzung der Algorithmen auch für Subspace-Clustering, indem man PCA durch eine Methode der Merkmals-Selektion ersetzt 294

Literatur C. Aggarwal and P. Yu. Finding Generalized Projected Clusters in High Dimensional Space. In Proc. ACM SIGMOD Int. Conf. on Management of Data (SIGMOD 00), Dallas, TX, 2000. C. C. Aggarwal and C. Procopiuc. Fast Algorithms for Projected Clustering. In Proc. ACM SIGMOD Int. Conf. on Management of Data (SIGMOD 99), Philadelphia, PA, 1999. R. Agrawal, J. Gehrke, D. Gunopulos, and P. Raghavan. Automatic Subspace Clustering of High Dimensional Data for Data Mining Applications. In Proc. ACM SIGMOD Int. Conf. on Management of Data (SIGMOD 98), Seattle, WA, 1998. C.-H. Cheng, A.-C. Fu, and Y. Zhang. Entropy-Based Subspace Clustering for Mining Numerical Data. In Proc. ACM SIGKDD Int. Conf. on Knowledge Discovery in Databases (SIGKDD 99), San Diego, CA, 1999. S. Goil, H. Nagesh, and A. Choudhary. MAFIA: Efficient and Scalable Subspace Clustering for Very Large Data Sets. Tech. Report No. CPDC-TR-9906-010, Center for Parallel and Distributed Computing, Dept. of Electrical and Computer Engineering, Northwestern University, 1999. A. Hinneburg and D. Keim. Optimal Grid-Clustering: Towards Breaking the Curse of Dimensionality in High- Dimensional Clustering. In Proc. 25th Int. Conf. on Very Large Databases (VLDB 99), 1999. I. Joliffe. Principal Component Analysis. Springer-Verlag, New York, 1986. K. Kailing, H.-P. Kriegel, P. Kröger. Density-Connected Subspace Clustering for High-Dimensional Data. To appear in Proc. SIAM Int. Conf. on Data Mining (SDM'04), Orlando, FL, 2004. K. Kailing, H.-P. Kriegel, P. Kröger. Selecting Subspaces Relevant for Clustering High-Dimensional Data. Submitted for publication at SIGMOD Conference 2004. K. Kailing, H.-P Kriegel, P. Kröger, and S. Wanka. RIS: Ranking Interesting Subspaces of High Dimensional Data. In Proc. 7th Europ. Conf. On Principles and Practice of Knowledge Discovery and Data Mining (PKDD 03), Cavtat, Kroatien, 2003. H. Nagesh, S. Goil, and A. Choudhary. Adaptive Grids for Clustering Massive Data Sets. In 1st SIAM Int. Conf. on Data Mining, Chicago, IL, 2001. C. M. Procopiuc, M. Jones, P. K. Agarwal, T. M. Murali. A Monte Carlo Algorithm for Fast Projective Clustering. In Proc. ACM SIGMOD Int. Conf. on Management of Data (SIGMOD 02), Madison, WN, 2002. 295