5.3 Dichtebasiertes Clustering
|
|
- Roland Krüger
- vor 6 Jahren
- Abrufe
Transkript
1 5.3 Dichtebasiertes lustering DSN Shared Nearest Neighbor (SNN) lustering Erkennt luster unterschiedlicher orm und Größe at robleme bei lustern mit unterschiedlicher Dichte Verbesserung: anderer Ähnlichkeitsbegriff Ähnlichkeit zwischen zwei Objekten, wenn sie beide sehr nahe zu einer eferenzmenge sind Ähnlichkeit wird durch die eferenzmenge bestätigt Ähnlichkeit z.. durch die nzahl gemeinsamer nächster Nachbarn definieren (d.h. ist die Menge der nächsten Nachbarn) Shared Nearest Neighbor (SNN) Ähnlichkeit: SNN k -similarity(p,q) = NN(p, k) NN(q, k) NN(o, k) = Menge der k-nächsten Nachbarn von Objekt o (vgl. Kap. 2.2) SNN 6 -similarity(, ) = 4 k = 6 SNN 6 -similarity(, ) = Dichtebasiertes lustering Einfaches SNN-lustering [arvis, atrick 73]: 1. erechnung der Ähnlichkeitsmatrix und des Ähnlichkeitsgraphen für alle Objekt-aare p,q D: berechne SNN k -similarity(p,q) SNN k -Ähnlichkeitsgraph: Knoten = Objekten Kante zwischen jedem Objektpaar p,q mit Gewicht SNN k -similarity(p,q) Keine Kanten mit Gewicht 0 2. Generiere luster ösche alle Kanten, deren Gewicht unterhalb eines Grenzwerts τ liegen luster = verbundenen Komponenten im resultierenden Graphen Datensatz SNN 5 Ähnlichkeitsgraph Generiere luster 223
2 5.3 Dichtebasiertes lustering roblem: Thresholdτ schwer zu bestimmen kleine Variationen führen zu stark unterschiedlichen Ergebnissen ild aus: [Ertöz, Steinbach, Kumar 03] ösung [Ertöz, Steinbach, Kumar 03] Kombiniere SNN-Ähnlichkeit mit dichtebasierten Konzepten SNN-Dichte: nzahl der unkte innerhalb eines spezifizierten adius ε bzgl. SNN-Ähnlichkeit SNN k -density(p,ε) = {q SNN k -similarity(p,q) ε} Dichtebasiertes lustering SNN-Dichte eispiel: Daten (ild (a)) k = 50, ε = 20 ild (b): Kernpunkte alle unkte mit SNN-Dichte 34 ild (c): andpunkte alle unkte mit SNN-Dichte 17 ild (d): auschen alle unkte mit SNN-Dichte < 17 ild aus: [Ertöz, Steinbach, Kumar 03] nalogie zu DSN: ε = 20, mints = 34 Kernpunkt p: mehr als mints unkte haben 20 oder mehr der 50 nächsten Nachbarn mit p gemeinsam 225
3 5.3 Dichtebasiertes lustering SNN-lustering lgorithmus [Ertöz, Steinbach, Kumar 03] Eingabe: k, ε, mints 1. erechne Ähnlichkeitsmatrix und -graph (siehe einfaches SNN-lustering) 2. erechne die SNN k -Dichte für jeden unkt bzgl. ε 3. estimme Kernpunkte bzgl. mints (alle unkte mit einer SNN-Dichte mints) 4. Vereinige Kernpunkte p,q, wenn SNN k -similarity(p,q) ε 5. Ordne Nicht-Kernpunkt p einem luster zu, wenn es ein Kernpunkt q gibt, mit SNN k -similarity(q,p) ε 6. lle anderen Nicht-Kernpunkte sind auschen DSN mit SNN-Ähnlichkeit Dichtebasiertes lustering Diskussion Unterschied zu DSN DSN mit Euklidischer Distanz: nur luster, die dichter sind als der Grenzwert (spezifiziert durch mints und ε) SNN-Dichte eines unktes p: nzahl der unkte, die mind. ε nächste Nachbarn mit p gemeinsam haben unabhängig von der eigentlichen Dichte arametrisierung Wahl von k ist kritisch: Zu klein: auch relativ gleichverteilte luster werden wegen lokalen Variationen gesplittet viele kleine luster Zu groß: wenige große, gut-separierte luster mints, ε < k 227
4 Ziel Grundlagen Konstruktion einer ierarchie von lustern (Dendrogramm), so dass immer die luster mit minimaler Distanz verschmolzen werden Dendrogramm ein aum, dessen Knoten jeweils ein luster repräsentieren, mit folgenden Eigenschaften: die Wurzel repräsentiert die ganze D die lätter repräsentieren einzelne Objekte ein innerer Knoten repräsentiert einen luster bestehend aus allen Objekten des darunter liegenden Teilbaums 228 eispiel eines Dendrogramms Grundlagen Distanz zwischen den lustern Typen von hierarchischen Verfahren ottom-up Konstruktion des Dendrogramms (agglomerative) Top-Down Konstruktion des Dendrogramms (divisive) 229
5 lgorithmus Single-ink [ain & Dubes 1988] gglomeratives hierarchisches lustering 1. ilde initiale luster, die jeweils aus einem Objekt bestehen, und bestimme die Distanzen zwischen allen aaren dieser luster. 2. ilde einen neuen luster aus den zwei lustern, welche die geringste Distanz zueinander haben. 3. estimme die Distanz zwischen dem neuen luster und allen anderen lustern. 4. Wenn alle Objekte in einem einzigen luster befinden: ertig, andernfalls wiederhole ab Schritt Distanzfunktionen für luster Die Verfahren unterscheiden sich anhand ihrer Distanzfunktionen für luster Single ink ompleteink verage ink Sei eine Distanzfunktion dist(x,y) für aare von Objekten gegeben Seien X, Y luster, d.h. Mengen von Objekten. 231
6 Definition: Single-ink Distanz dists( X, Y ) = min x X, y Y dist( x, y) Eigenschaften: Effiziente mplementierung (z.. SNK): O(n 2 ) Single-ink Effekt: kettenförmige luster, luster werden durch wenige, kettenförmig verteilte Objekte vereinigt luster mit starker Streuung luster mit langgezogener Struktur 232 Definition: dist( X, Y ) = Eigenschaften: omplete-ink Distanz max x X, y Y dist( x, y) Effiziente mplementierung (z.. NK): O(n 2 ) omplete-ink Effekt Kleine, stark abgegrenzte luster Gleichgroße, konvexe luster 233
7 verage-ink Distanz Definition: dist( X, Y ) = X 1 Y x X, y Y dist( x, y) Eigenschaften: Keine effiziente mplementierung Kompromiss zwischen Single- und omplete-ink nsatz 234 Diskussion + erfordert keine Kenntnis der nzahl k der luster + findet nicht nur ein flaches lustering, sondern eine ganze ierarchie + ein einzelnes lustering kann aus dem Dendrogramm gewonnen werden, z.. mit ilfe eines horizontalen Schnitts durch das Dendrogramm (erfordert aber wieder nwendungswissen) - Entscheidungen können nicht zurückgenommen werden - Single-ink-Effekte, omplete-ink-effekte - neffizienz aufzeitkomplexität von mindestens O(n 2 ) für n Objekte 235
8 Dichtebasiertes hierarchisches lustering [nkerst, reunig, Kriegel & Sander 1999] für einen konstanten Mints-Wert sind dichte-basierte luster bzgl. eines kleineren ε vollständig in lustern bzgl. eines größeren ε enthalten 1 Mints = 3 2 ε2 ε1 in einem DSN-ähnlichen Durchlauf gleichzeitig das lustering für verschiedene Dichte-arameter bestimmen zuerst die dichteren Teil-luster, dann den dünneren est-luster kein Dendrogramm, sondern eine auch noch bei sehr großen Datenmengen übersichtliche Darstellung der luster-ierarchie 236 Grundbegriffe Kerndistanz eines Objekts p bzgl. ε und Mints Kerndistanz ε, Mints UNDENE T, wenn Q( o,ε) < Mints ( o) = MintsDist anz( o), sonst Erreichbarkeitsdistanz eines Objekts p relativ zu einem Objekt o Erreichbarkeitsdistanz ε, Mints UNDENET, wenn Q( o,ε) < Mints ( p, o) = max{ Kerndistanz( o), dist( o, p)}, sonst Mints = 5 q p o ε Kerndistanz(o) Erreichbarkeitsdistanz(p,o) Erreichbarkeitsdistanz(q,o) 237
9 lusterordnung OTS liefert nicht direkt ein (hierarchisches) lustering, sondern eine lusterordnung bzgl. ε und Mints lusterordnung bzgl. ε und Mints beginnt mit einem beliebigen Objekt als nächstes wird das Objekt besucht, das zur Menge der bisher besuchten Objekte die minimale Erreichbarkeitsdistanz besitzt ore-distance Kerndistanz eachability-distance Erreichbarkeitsdistanz lusterordnung 238 Datenstrukturen lgorithmus OTS Seedist speichert unkte mit aktueller Erreichbarkeitsdistanz aufsteigend sortiert lusterorder resultierende lusterordnung wird schrittweise aufgebaut auptschleife: Seedist = ; WE es gibt noch unmarkierte Objekte in D DO Seedist = TEN füge beliebiges noch unmarkiertes Objekt in lusterorder ein mit Erreichbarkeitsdistanz ; ESE füge erstes Objekt aus der Seedist mit aktueller Erreichbarkeitsdistanz in lusterorder ein; // sei obj das zuletzt in lusterorder eingefügte Objekt markiere obj als bearbeitet; O neighbor Q(obj, ε) DO Seedist.update(neighbor, obj); // insert/update neighbor in Seedist mit referenzobjekt obj; 239
10 lgorithmus OTS Einfügen/Updaten eines Objekts o in Seedist eachte: ür alle Objekte p in Seedist ist die aktuelle Erreichbarkeitsdistanz p.rdist gespeichert. Seedist ist nach p.rdist aufsteigend sortiert (als eap organisiert) eferenzobjekt: obj Seedist :: update(o, obj) erechne Erreichbarkeitsdistanz ε,mints (o, obj) =: rdistneu_o; o ist bereits in Seedist TEN rdistneu_o o.rdist TEN o.rdist := rdistneu_o; verschiebe o in Seedist (nach vorne); // aufsteigen im eap ESE // o ist noch nicht in Seedist füge o mit o.rdist := rdistneu_o in Seedist ein; // normales Einfügen in eap 240 ε=, Mints = 3 E D G seed list: 241
11 ε=, Mints = 3 E G D coredistance ε seed list: (,40) (, 40) 242 ε=, Mints = 3 E D G seed list: (, 40) (, 40) 243
12 ε=, Mints = 3 D E G seed list: (, 20) (K, 20) (, 31) (, 40) (M, 40) (, 43) 2 ε=, Mints = 3 E D G seed list: (, 19) (K, 20) (, 21) (M, 30) (, 31) (, 40) 245
13 ε=, Mints = 3 D E G seed list: (M, 18) (K, 18) (, 20) (, 21) (N, 35) (, 40) 246 ε=, Mints = 3 D E G M seed list: (K, 18) (N, 19) (, 20) (, 21) (, 40) 247
14 ε=, Mints = 3 D E G M K seed list: (N, 19) (, 20) (, 21) (, 40) 248 ε=, Mints = 3 E D G M K N seed list: (, 20) (, 21) (, 40) 249
15 ε=, Mints = 3 D E G M K N seed list: (, 21) (, 40) 250 ε=, Mints = 3 E D G M K N seed list: (, 40) 251
16 ε=, Mints = 3 D E G M K N seed list: (D, 22) (, 22) (E, 30) (G, 35) 252 ε=, Mints = 3 E D G M K N D seed list: (, 22) (E, 22) (G, 32) 253
17 ε=, Mints = 3 D E G M K N D seed list: (G, 17) (E, 22) 254 ε=, Mints = 3 E D G M K N D G seed list: (E, 15) (, 43) 255
18 ε=, Mints = 3 D E G M K N D G E seed list: (, 43) 256 ε=, Mints = 3 E D G M K N D G E seed list: - 257
19 ε=, Mints = 3 D E G M K N D G E 258 Erreichbarkeits-Diagramm Zeigt die Erreichbarkeitsdistanzen (bzgl. ε und Mints) der Objekte als senkrechte, nebeneinanderliegende alken in der durch die lusterordnung der Objekte gegebenen eihenfolge Erreichbarkeitsdistanz Erreichbarkeitsdistanz lusterordnung 259
20 arameter-sensitivität Mints = 10, ε = Mints = 10, ε = 5 Mints = 2, ε = optimale arameter kleineres ε kleineres Mints lusterordnung ist robust gegenüber den arameterwerten gute esultate wenn arameterwerte groß genug 260 euristische arameter-estimmung ε wähle größte Mints-Distanz aus einem Sample oder berechne durchschnittliche Mints-Distanz für gleichverteilte Daten Mints glätte Erreichbarkeits-Diagramm vermeide single- bzw. Mints-link Effekt
21 Manuelle nalyse der luster Mit Erreichbarkeits-Diagramm gibtesluster? wieviele luster? sind die luster hierarchisch geschachtelt? wie groß sind die luster? Erreichbarkeits-Diagramm 262 utomatisches Entdecken von lustern ξ-luster [nkerst, reunig, Kriegel, Sander 99] Teilsequenz der lusterordnung beginnt in einem Gebiet ξ-steil abfallender Erreichbarkeitsdistanzen endet in einem Gebiet ξ-steil steigender Erreichbarkeitsdistanzen bei etwa demselben absoluten Wert enthält mindestens Mints unkte 263
22 utomatisches Entdecken von lustern lustertree [Sander, Qin, u, Niu, Kovarsky 02] luster sind geteilt durch signifikante lokale Maxima: Minimale nzahl der unkte zwischen 2 Maxima ichtwert: 0.5 % der Datenbank Verhältnis zwischen Erreichbarkeitsdistanz des lokalen Maximas und der durchschnittlichen Erreichbarkeitsdistanzen links und rechts des Maximas in der lusterordnung ichtwert: 0.75 significant local maxima luster-tree insignificant local maxima 4 5 oot Gradientlustering utomatisches Entdecken von lustern [recheisen, Kriegel, Kröger, feifle 04] Teilsequenzen der lusterordnung beginnt/endet mit nflexion oint Gradientvektor nflexion ndex nflexion oint, wenn (o) > t Gradient Determinante allunterscheidung: (o) > t and GD(o) > 0 Startpunkt oder erster unkt außerhalb des lusters (o) > t and GD(o) < 0 Endpunkt oder zweiter unkt innerhalb des lusters g(x,y) g(y,z) g(z,a) x y z a width g(x,y) = y. x. (y) = cos ϕ( g(x,y), g(y,z) ) GD( g(x,y), g(y,z) ) = ϕ 2 ϕ 1 width y. x. - width y. z. cos ϕ 1 = cos ϕ 265 2
23 5.5 esondere nwendungen Übersicht lustering mit kategorischer ttribute Grundlagen, lgorithmus k-modes Verallgemeinertes dichtebasiertes lustering Grundlagen, lgorithmus GDSN, eispiele lustering mit kategorischen ttributen Grundlagen [uang 1997] k-medoid-lgorithmus wesentlich langsamer als k-means- lgorithmus k-means-verfahren nicht direkt für kategorische ttribute anwendbar gesucht ist ein nalogon zum entroid eines lusters Numerische ttribute entroid x einer Menge von Objekten minimiert TD(, x) = dist( p, x) p Kategorische ttribute Mode m einer einer Menge von Objekten minimiert TD(, m) = dist( p, m) p ( m ist nicht unbedingt ein Element der Menge ) m = (m 1,..., m d ), dist eine Distanzfunktion für kategorische ttribute, z.. d 0 falls xi = y dist( x, y) = δ( xi, yi) mit δ( xi, yi) = i= 1 1 sonst i 267
24 5.5.1 lustering mit kategorischen ttributen estimmung des Modes Die unktion TD(, m) = dist( p, m) p wird minimiert genau dann, wenn für m = (m 1,..., m d ) und für alle ttribute i, i = 1,..., d, gilt: es gibt in i keinen häufigeren ttributwert als m i Der Mode einer Menge von Objekten ist nicht eindeutig bestimmt. eispiel Objektmenge {(a, b), (a,c), (c, b), (b,c)} (a, b) ist ein Mode (a, c) ist ein Mode lustering mit kategorischen ttributen nitialisierung lgorithmus k-modes keine zufällige artitionierung sondern k Objekte aus der Datenmenge als initiale Modes luster-epräsentanten Mode anstelle des entroids Distanzfunktion anstelle der quadrierten euklidischen Distanz Distanzfunktion für Datensätze mit kategorischen ttributen 269
25 5.5.2 Verallgemeinertes dichtebasiertes lustering lustering ausgedehnter Objekte Mittelpunkt- Transformation erücksichtigung der läche und nicht-räumlicher ttribute natürlicher egriff der Verbundenheit Verallgemeinertes dichtebasiertes lustering lgorithmus GDSN [Sander, Ester, Kriegel & Xu 1998] Grundidee für dichte-basierte luster : ε-nachbarschaft enthält mindestens Mints unkte Distanz ε N ε Mints Nred(o,p) reflexiv, symmetrisch für aare von Objekten Verallgemeinerung MinWeight(N) beliebiges rädikat für Mengen von Objekten Verallgemeinerte Nachbarschaft N Nred (o) = {p Nred(o, p)} Verallgemeinerte minimale Kardinalität MinWeight(N Nred (o)) Nred-Nachbarschaft hat mindestens das Gewicht MinWeight 271
26 5.5.2 Verallgemeinertes dichtebasiertes lustering eispiele Nred dist(p,q) ε intersect(p,q) Nachbarzelle und ähnliche arbe MinWeight cardinality(...) Minoints Summe der lächen true 5 % der Gesamtfläche Verallgemeinertes dichtebasiertes lustering lgorithmus GDSN dasselbe algorithmische Schema wie DSN anstelle einer Q(o,ε)-nfrage eine N Nred -nfrage anstelle der edingung Q(o,ε) Mints das MinWeight-rädikat auswerten aufzeitkomplexität O(n logn) bei geeigneter Unterstützung der N Nred -nfrage eliebige Nachbarschaftsprädikate denkbar 273
Dichtebasiertes Clustering. Grundlagen. Idee. Zentrale Annahmen
Idee Grundlagen Cluster als Gebiete im d-dimensionalen Raum, in denen die Objekte dicht beieinander liegen getrennt durch Gebiete, in denen die Objekte weniger dicht liegen Zentrale Annahmen für jedes
Mehr... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern
Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern
Mehr5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene
Mehr3. Clustering. 3. Clustering. 3.5 Datenbanktechniken zur Leistungssteigerung. 3.5 Datenbanktechniken zur Leistungssteigerung. Inhalt dieses Kapitels
3 Einleitung 3 Clustering Inhalt dieses Kapitels Ziel des Clustering, Distanzfunktionen, Anwendungen, Typen von Algorithmen 32 Partitionierende Verfahren k-means, k-medoid, Expectation Maximization, Initialisierung
Mehr5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
Mehr4.Tutorium Multivariate Verfahren
4.Tutorium Multivariate Verfahren - Clusteranalyse - Hannah Busen: 01.06.2015 und 08.06.2015 Nicole Schüller: 02.06.2015 und 09.06.2015 Institut für Statistik, LMU München 1 / 17 Gliederung 1 Idee der
MehrGlobalübungsaufgabe1 (All Pair Shortest Path):
Prof. aa r. Ir. G. Woeginger atenstrukturen und lgorithmen SS7 Tutoriumslösung - Übung 0 (bgabe 2.07.207) T. Hartmann,. Korzeniewski,. Tauer Globalübungsaufgabe (ll Pair Shortest Path): etrachten Sie den
Mehr(a, b)-bäume / 1. Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss.
(a, b)-bäume / 1. Szenario: Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss. Konsequenz: Kommunikation zwischen Hauptspeicher und Festplatte - geschieht nicht Byte für Byte,
Mehr9 Minimum Spanning Trees
Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Graphdurchläufe Maike Buchin 22. und 27.6.2017 Graphexploration Motivation: Für viele Zwecke will man den gesamten Graphen durchlaufen, zb. um festzustellen ob er (stark) zusammenhängt.
Mehrk-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering
Rückblick k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering Hierarchisches Clustering bestimmt eine Folge von Clusterings, die als Dendrogramm darstellbar
MehrGeometrische Algorithmen Einige einfache Definitionen: Ist ein Punkt in einem Polygon? Punkt-in-Polygon-Problem. Das Punkt-in-Polygon-Problem
Geometrische Algorithmen Einige einfache Definitionen: Punkt: im n-dimensionalen Raum ist ein n-tupel (n Koordinaten) Gerade: definiert durch zwei beliebige Punkte auf ihr Strecke: definiert durch ihre
MehrVorlesung Informatik 2 Algorithmen und Datenstrukturen
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (18 Bäume: Grundlagen und natürliche Suchbäume) Prof. Dr. Susanne Albers Bäume (1) Bäume sind verallgemeinerte Listen (jedes Knoten-Element kann mehr
MehrWas bisher geschah. 1. Zerlegung in monotone Polygone 2. Triangulierung der monotonen Teilpolygone
Was bisher geschah Motivation, Beispiele geometrische Objekte im R 2 : Punkt, Gerade, Halbebene, Strecke, Polygon, ebene Zerlegung in Regionen (planare Graphen) maschinelle Repräsentation geometrischer
Mehr5. Bäume und Minimalgerüste
5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein
Mehr3.5 Datenbanktechniken zur Leistungssteigerung. 3. Clustering. 3.5 Datenbanktechniken zur Leistungssteigerung. 3. Clustering. Inhalt dieses Kapitels
3.1 Einleitung 3. Clustering Inhalt dieses Kapitels Ziel des Clustering, Distanzfunktionen, Anwendungen, Typen von Algorithmen 3.2 Partitionierende Verfahren k-means, k-medoid, Expectation Maximization,
Mehr1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie
Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie 4/3, Folie 1 2010 Prof. Steffen Lange - HDa/FbI
MehrSeminar Komplexe Objekte in Datenbanken
Seminar Komplexe Objekte in Datenbanken OPTICS: Ordering Points To Identify the Clustering Structure Lehrstuhl für Informatik IX - Univ.-Prof. Dr. Thomas Seidl, RWTH-Aachen http://www-i9.informatik.rwth-aachen.de
MehrVoronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :
MehrLernmodul 7 Algorithmus von Dijkstra
Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer
MehrVoronoi-Diagramme INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.06.2014 1 Das Postamt-Problem b(p, q) = {x 2 R 2 : xp = xq } p q h(p, q) h(q, p) = {x
Mehr1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie
Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen 5. Hashing 6. Algorithmische Geometrie 4/5, olie 1 2014 Prof. Steffen Lange - HDa/bI
MehrDistributed Algorithms. Image and Video Processing
Chapter 6 Optical Character Recognition Distributed Algorithms for Übersicht Motivation Texterkennung in Bildern und Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben
MehrUnüberwachtes Lernen: Clusteranalyse und Assoziationsregeln
Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Praktikum: Data Warehousing und Data Mining Clusteranalyse Clusteranalyse Idee Bestimmung von Gruppen ähnlicher Tupel in multidimensionalen Datensätzen.
MehrBereichsabfragen. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 17.05.2011 Geometrie in Datenbanken In einer Personaldatenbank
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrGeradenarrangements und Dualität von Punkten und Geraden
Vorlesung Algorithmische Geometrie von Punkten und Geraden INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 12.06.2012 Dualitätsabbildung Bisher haben wir Dualität für planare
Mehr12 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang
12 (2-4)-Bäume (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 2. Die Ordnung (maximale Anzahl der Söhne eines Knotens) ist gleich 4 3. Innere Knoten haben 2 Söhne
MehrMultivariate Verfahren
Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:
Mehr2.4. Triangulierung von Polygonen
Als drittes Problem haben wir in Kapitel 1 die Triangulierung von Polygonen identifiziert, die etwa bei der Überwachung eines Museums durch Kameras auftritt. F70 F71 Definition und Theorie: Definition
MehrGeradenarrangements und Dualität von Punkten und Geraden
Vorlesung Algorithmische Geometrie von Punkten und Geraden INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 12.06.2012 Dualitätsabbildung Bisher haben wir Dualität für planare
Mehr3.3 Nächste-Nachbarn-Klassifikatoren
3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
Mehr15. Elementare Graphalgorithmen
Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen
Mehr13 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang
13 (2-4)-Bäume (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 2. Die Ordnung (maximale Anzahl der Söhne eines Knotens) ist gleich 4 3. Innere Knoten haben 2 Söhne
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrDatenstrukturen Teil 2. Bäume. Definition. Definition. Definition. Bäume sind verallgemeinerte Listen. Sie sind weiter spezielle Graphen
Bäume sind verallgemeinerte Listen Datenstrukturen Teil 2 Bäume Jeder Knoten kann mehrere Nachfolger haben Sie sind weiter spezielle Graphen Graphen bestehen aus Knoten und Kanten Kanten können gerichtet
MehrGraphdurchmusterung, Breiten- und Tiefensuche
Prof. Thomas Richter 18. Mai 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 18.05.2017 Graphdurchmusterung,
MehrMaximale s t-flüsse in Planaren Graphen
Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen 6. Juni 2017 Guido Brückner INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg
Mehr2. November Gradfolgen Zusammenhang Kürzeste Wege. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37
2. November 2011 Gradfolgen Zusammenhang Kürzeste Wege H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37 Satz von Erdős und Gallai Eine Partition einer natürlichen Zahl ist genau dann die Gradfolge
Mehr1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie
Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen. Hashing 6. Algorithmische Geometrie 4/6, Folie 1 2014 Prof. Steffen Lange - HDa/FbI
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Datenstrukturen: Anordnung von Daten, z.b. als Liste (d.h. in bestimmter Reihenfolge) Beispiel: alphabetisch sortiertes Wörterbuch... Ei - Eibe - Eidotter... als Baum (d.h.
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
Mehr1 Kürzeste Pfade in Graphen
Praktikum Algorithmen-Entwurf (Teil 3) 03.11.2011 1 1 Kürzeste Pfade in Graphen Es sei ein gerichteter Graph G = (V, E) mit V = n Knoten, E = m Kanten und Kantengewichten c : E R gegeben. Ein Pfad in G
MehrÄhnlichkeits- und Distanzmaße
Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8-1 - Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8 -
Mehrf h c 7 a 1 b 1 g 2 2 d
) Man bestimme mit Hilfe des Dijkstra-Algorithmus einen kürzesten Weg von a nach h: c 7 a b f 5 h 3 4 5 i e 6 g 2 2 d Beim Dijkstra-Algorithmus wird in jedem Schritt von den noch unmarkierten Knoten jener
MehrLösungen zu Kapitel 5
Lösungen zu Kapitel 5 Lösung zu Aufgabe : (a) Es gibt derartige Graphen: (b) Offensichtlich besitzen 0 der Graphen einen solchen Teilgraphen. Lösung zu Aufgabe : Es sei G = (V, E) zusammenhängend und V
MehrMehrwegbäume Motivation
Mehrwegbäume Motivation Wir haben gute Strukturen (AVL-Bäume) kennen gelernt, die die Anzahl der Operationen begrenzen Was ist, wenn der Baum zu groß für den Hauptspeicher ist? Externe Datenspeicherung
MehrEffiziente Algorithmen und Komplexitätstheorie
1 Effiziente lgorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 29.06.2006 2 Burrows-Wheeler-Kompression: Verbesserungen dreischrittiges Kompressionsverfahren Burrows- Wheeler- Transformation Globale
MehrAlgorithmische Geometrie: Schnittpunkte von Strecken
Algorithmische Geometrie: Schnittpunkte von Strecken Nico Düvelmeyer WS 2009/2010, 3.11.2009 3 Phasen im Algorithmenentwurf 1. Konzentration auf das Hauptproblem 2. Verallgemeinerung auf entartete Eingaben
MehrStud.-Nummer: Datenstrukturen & Algorithmen Seite 1
Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1 Aufgabe 1. / 16 P Instruktionen: 1) In dieser Aufgabe sollen Sie nur die Ergebnisse angeben. Diese können Sie direkt bei den Aufgaben notieren. 2) Sofern
MehrDatenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 18. März
MehrDarstellungsarten für 3D-Körper. Boundary Representation (BRep):
Darstellungsarten für 3D-Körper Boundary Representation (BRep): Darstellung eines (verallgemeinerten) Polyeders durch das System seiner Ecken, Kanten und Facetten Abspeichern durch (Teilgraphen des) vef-graphen
MehrGeometrische Algorithmen
Geometrische Algorithmen Thomas Röfer Motivation Scan-line-Prinzip Konvexe Hülle Distanzprobleme Voronoi-Diagramm Rückblick Manipulation von Mengen Vorrangwarteschlange Heap HeapSort swap(a, 0, 4) 1 5
MehrStatistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07
Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07 Ziel der Clusteranalyse: Bilde Gruppen (cluster) aus einer Menge multivariater Datenobjekte (stat
MehrDies ist gerade der konstruktive Schritt beim Aufbau von Binomialbäumen.
Linken von Bäumen: Zwei Bäume desselben Wurzel-Rangs werden unter Einhaltung der Heap-Bedingung verbunden. Sind k 1 und k 2 die Wurzeln der zwei zu linkenden Bäume, so wird ein neuer Baum aufgebaut, dessen
Mehr7. Konzentrations- und Disparitätsmessung
7. Konzentrations- und Disparitätsmessung Betrachte: Merkmal X, bei dem alle Daten x i 0 sind und die Merkmalssumme n i=1 x i eine sinnvolle Interpretation besitzt (extensives Merkmal) 314 Beispiel: X:
MehrNachbarschaft, Grad, regulär, Inzidenz
Nachbarschaft, Grad, regulär, Inzidenz Definition Eigenschaften von Graphen Sei G = (V, E) ein ungerichteter Graph. 1 Die Nachbarschaftschaft Γ(u) eines Knoten u V ist Γ(u) := {v V {u, v} E}. 2 Der Grad
MehrAlgorithmen & Komplexität
Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg
MehrDatenstrukturen und Algorithmen D-INFK
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik Peter Widmayer
MehrAlgorithmische Geometrie: Lineare Optimierung (I)
Algorithmische Geometrie: Lineare Optimierung (I) Nico Düvelmeyer WS 2009/2010, 17.11.2009 Überblick 1 Geometrie von Gießformen 2 Durchschnitte von Halbebenen 3 Inkrementeller Algorithmus Überblick 1 Geometrie
MehrDatenstrukturen. einfach verkettete Liste
einfach verkettete Liste speichert Daten in einer linearen Liste, in der jedes Element auf das nächste Element zeigt Jeder Knoten der Liste enthält beliebige Daten und einen Zeiger auf den nächsten Knoten
Mehr3. Minimale Spannbäume. Definition 99 T heißt minimaler Spannbaum (MSB, MST) von G, falls T Spannbaum von G ist und gilt:
3. Minimale Spannbäume Sei G = (V, E) ein einfacher ungerichteter Graph, der o.b.d.a. zusammenhängend ist. Sei weiter w : E R eine Gewichtsfunktion auf den Kanten von G. Wir setzen E E: w(e ) = e E w(e),
MehrDatenstrukturen und Algorithmen
Datenstrukturen und Algorithmen VO INF.02031UF (2-4)-Bäume robert.legenstein@igi.tugraz.at 1 7. Bäume Bäume als Datenstruktur Binärbäume Balancierte Bäume (2-4)-Bäume Anwendung: Mischbare Warteschlangen
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Prof. Martin Lercher Institut für Informatik Heinrich-Heine-Universität Düsseldorf Teil 10 Suche in Graphen Version vom 13. Dezember 2016 1 / 2 Vorlesung 2016 / 2017 2 /
Mehr12. Flächenrekonstruktion aus 3D-Punktwolken und generalisierte Voronoi-Diagramme
12. Flächenrekonstruktion aus 3D-Punktwolken und generalisierte Voronoi-Diagramme (Einfache) Voronoi-Diagramme: Motivation: gegeben: Raum R, darin Menge S von Objekten Frage nach Zerlegung von R in "Einflusszonen"
MehrMinimal spannender Baum
Minimal spannender Baum 16 1 2 21 5 11 19 6 6 3 14 33 10 5 4 18 Die Kreise zeigen die vorgesehenen Standorte neu zu errichtender Filialen einer Bank. Entlang der bestehenden Straßen sollen Telefonleitungen
MehrSerie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.
Analysis D-BAUG Dr Cornelia Busch FS 2016 Serie 3 1 a) Zeigen Sie, dass der Graph von f(x, y) = 9 (x 2) 2 (y 3) 2 eine Halbkugel beschreibt und bestimmen Sie ihren Radius und ihr Zentrum z = f(x, y) =
MehrBerechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen
Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit
MehrRolf Wanka Sommersemester Vorlesung
Peer-to to-peer-netzwerke Rolf Wanka Sommersemester 2007 7. Vorlesung 05.06.2007 rwanka@cs.fau.de basiert auf einer Vorlesung von Christian Schindelhauer an der Uni Freiburg Lookup in CAN Verbindungsstruktur:
Mehr...imbeispiel: Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t). liefert die Konkatenation: name int + int.
Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t)....imbeispiel: E 0 E 1 + T 1 T 0 F 2 T 1 F 2 int F 1 int name liefert die Konkatenation: name int + int. 273 Die Grammatik
MehrAlgo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7
1 Kürzeste Pfade Woche 6 7 Hier arbeiten wir mit gewichteten Graphen, d.h. Graphen, deren Kanten mit einer Zahl gewichtet werden. Wir bezeichnen die Gewichtsfunktion mit l : E R. Wir wollen einen kürzesten
MehrZusammenfassung des 2. Abends
lgorithmen in der iologie r. Hans-Joachim öckenhauer r. ennis Komm Zusammenfassung des. bends Zürich, 0. pril 0 lignment-verfahren Für einen Überblick über die lignment-lgorithmen zur estimmung der Ähnlichkeit
Mehr7 Weitere Baumstrukturen und Heapstrukturen
7 Weitere Baumstrukturen und Heapstrukturen Man kann kurze Suchzeiten in Baumstrukturen erreichen durch Rebalancierung bei Einfügungen und Löschungen (AVL Bäume, gewichtsbalancierte Bäume, Bruderbäume,
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Sommersemester 204 4. Vorlesung Matchings / Paarungen Kombinatorische Anwendungen des Max-Flow-Min-Cut-Theorems Prof. Dr. Alexander Wolff 2 Paarungen (Matchings) Def. Sei
Mehr\ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E.
Das Komplement Ḡ = (V, ( V ) \ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E. Ein Graph H = (V, E )
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrKapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete
Kapitel 4.8-4.11: Andere dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.6 AVL-Bäume 4.8 Rot-Schwarz-Bäume Idee: Verwende Farben, um den Baum vertikal zu
MehrDatenstrukturen und Algorithmen (SS 2013)
Datenstrukturen und Algorithmen (SS 20) Übungsblatt 8 Abgabe: Montag, 24.06.20, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes Gruppenmitglieds
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Minimale Spannbäume Maike Buchin 18.7., 20.7.2017 Einführung Motivation: Verbinde Inseln mit Fähren oder Städte mit Schienen und verbrauche dabei möglichst wenig Länge. Problem:
MehrDelaunay-Triangulierungen
Vorlesung Algorithmische Geometrie Delaunay-Triangulierungen INSTITUT FU R THEORETISCHE INFORMATIK FAKULTA T FU R INFORMATIK Martin No llenburg 10.06.2014 Grafik c Rodrigo I. Silveira 1 Dr. Martin No llenburg
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
MehrÜbersicht. Begriffserklärung Motivation / Anwendungen Drei Algorithmen Zusammenfassung Fragen Quellen. Triangulierung von Steffen Ernst 2
Triangulierung Übersicht Begriffserklärung Motivation / Anwendungen Drei Algorithmen Zusammenfassung Fragen Quellen Triangulierung von Steffen Ernst 2 Begriffserklärung Ein Graph ist trianguliert, wenn
MehrTechnische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt
Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik Prof. Dr. A. Taraz, Dipl-Math. A. Würfl, Dipl-Math. S. König Weihnachtsblatt Aufgabe W.1 Untersuchen Sie nachstehenden
MehrGeometrie I. Tobias Langer Tobias Langer Geometrie I / 59
Geometrie I Tobias Langer 02.07.2010 Tobias Langer Geometrie I 02.07.2010 1 / 59 1 Schulgeometrie Punkte & Geraden Dreieck Kreis Polygon 2 Schnitt von Geraden und Strecken 3 Punkt in Polygon Tobias Langer
MehrProgramm heute. Algorithmen und Datenstrukturen (für ET/IT) Übersicht: Graphen. Definition: Ungerichteter Graph. Definition: Ungerichteter Graph
Programm heute Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 07 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München 7 Fortgeschrittene Datenstrukturen Graphen
MehrAlgorithmische Geometrie
Algorithmische Geometrie Martin Peternell TU Wien 31. Fortbildungstagung für Geometrie 2010, Strobl 1 Themen der Algorithmische Geometrie Entwurf von Algorithmen für geometrische Fragestellungen betreffend
MehrHäufige Mengen ohne Kandidatengenerierung. FP-Tree: Transaktionen. Konstruktion eines FP-Trees. FP-Tree: Items
Häufige Mengen ohne Kandidatengenerierung Jiawei Han, Micheline Kamber 2006 (2nd ed.)! Ziel 1: Kompression der Datenbank in eine Frequent-Pattern Tree Struktur (FP-Tree)! Stark komprimiert, vollständig
MehrDiskrete Strukturen Kapitel 2: Grundlagen (Relationen)
WS 2016/17 Diskrete Strukturen Kapitel 2: Grundlagen (Relationen) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_16
MehrDas Voronoi Diagramm. 1. Definition. 2. Eigenschaften. 3. Größe und Speicherung. 4. Konstruktion. 5. Verwendung
Das Voronoi Diagramm 1. Definition 2. Eigenschaften 3. Größe und Speicherung 4. Konstruktion 5. Verwendung Das Voronoi- Diagramm Voronoi Regionen Euklidische Distanz: d(p,q) = (px-qx)^2+(py-qy)^2 Das Voronoi-Diagramm
MehrWasserscheiden-Ansätze zur Bildsegmentierung I
Seminar Bildsegmentierung und Computer Vision Wasserscheiden-Ansätze zur Bildsegmentierung I Stefan Sugg 19.12.2005 Gliederung 1. Einführung 2. Morphologische Grundlagen 3. Simulation durch Überflutung
MehrVorlesung Informatik 2 Algorithmen und Datenstrukturen
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (23 Bruder-Bäume, B-Bäume) Prof. Dr. Susanne Albers Balancierte Bäume Eine Klasse von binären Suchbäumen ist balanciert, wenn jede der drei Wörterbuchoperationen
MehrÜbungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Vorlesung Theoretische Grundlagen der Informatik im WS 16/17 Ausgabe 22. Dezember 2016 Abgabe 17. Januar 2017, 11:00 Uhr
MehrClustern: Voraussetzungen
Clustering Gruppen (Cluster) ähnlicher Elemente bilden Elemente in einem Cluster sollen sich möglichst ähnlich sein, u. den Elementen in anderen Clustern möglichst unähnlich im Gegensatz zu Kategorisierung
Mehr3 Klassifikation wichtiger Optimierungsprobleme
3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i
Mehr4 Greedy-Algorithmen (gierige Algorithmen)
Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine
MehrGrundlagen zur Delaunay-Triangulierung und zur konvexen Hülle. zum Begriff des Voronoi-Diagramms (vgl. auch Vorlesung "Algorithmische Geometrie"):
Grundlagen zur Delaunay-Triangulierung und zur konvexen Hülle zum Begriff des Voronoi-Diagramms (vgl. auch Vorlesung "Algorithmische Geometrie"): 1 Erzeugung des Voronoi-Diagramms (siehe Vorlesung "Algorithmische
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Mehr