5.3 Dichtebasiertes Clustering

Größe: px
Ab Seite anzeigen:

Download "5.3 Dichtebasiertes Clustering"

Transkript

1 5.3 Dichtebasiertes lustering DSN Shared Nearest Neighbor (SNN) lustering Erkennt luster unterschiedlicher orm und Größe at robleme bei lustern mit unterschiedlicher Dichte Verbesserung: anderer Ähnlichkeitsbegriff Ähnlichkeit zwischen zwei Objekten, wenn sie beide sehr nahe zu einer eferenzmenge sind Ähnlichkeit wird durch die eferenzmenge bestätigt Ähnlichkeit z.. durch die nzahl gemeinsamer nächster Nachbarn definieren (d.h. ist die Menge der nächsten Nachbarn) Shared Nearest Neighbor (SNN) Ähnlichkeit: SNN k -similarity(p,q) = NN(p, k) NN(q, k) NN(o, k) = Menge der k-nächsten Nachbarn von Objekt o (vgl. Kap. 2.2) SNN 6 -similarity(, ) = 4 k = 6 SNN 6 -similarity(, ) = Dichtebasiertes lustering Einfaches SNN-lustering [arvis, atrick 73]: 1. erechnung der Ähnlichkeitsmatrix und des Ähnlichkeitsgraphen für alle Objekt-aare p,q D: berechne SNN k -similarity(p,q) SNN k -Ähnlichkeitsgraph: Knoten = Objekten Kante zwischen jedem Objektpaar p,q mit Gewicht SNN k -similarity(p,q) Keine Kanten mit Gewicht 0 2. Generiere luster ösche alle Kanten, deren Gewicht unterhalb eines Grenzwerts τ liegen luster = verbundenen Komponenten im resultierenden Graphen Datensatz SNN 5 Ähnlichkeitsgraph Generiere luster 223

2 5.3 Dichtebasiertes lustering roblem: Thresholdτ schwer zu bestimmen kleine Variationen führen zu stark unterschiedlichen Ergebnissen ild aus: [Ertöz, Steinbach, Kumar 03] ösung [Ertöz, Steinbach, Kumar 03] Kombiniere SNN-Ähnlichkeit mit dichtebasierten Konzepten SNN-Dichte: nzahl der unkte innerhalb eines spezifizierten adius ε bzgl. SNN-Ähnlichkeit SNN k -density(p,ε) = {q SNN k -similarity(p,q) ε} Dichtebasiertes lustering SNN-Dichte eispiel: Daten (ild (a)) k = 50, ε = 20 ild (b): Kernpunkte alle unkte mit SNN-Dichte 34 ild (c): andpunkte alle unkte mit SNN-Dichte 17 ild (d): auschen alle unkte mit SNN-Dichte < 17 ild aus: [Ertöz, Steinbach, Kumar 03] nalogie zu DSN: ε = 20, mints = 34 Kernpunkt p: mehr als mints unkte haben 20 oder mehr der 50 nächsten Nachbarn mit p gemeinsam 225

3 5.3 Dichtebasiertes lustering SNN-lustering lgorithmus [Ertöz, Steinbach, Kumar 03] Eingabe: k, ε, mints 1. erechne Ähnlichkeitsmatrix und -graph (siehe einfaches SNN-lustering) 2. erechne die SNN k -Dichte für jeden unkt bzgl. ε 3. estimme Kernpunkte bzgl. mints (alle unkte mit einer SNN-Dichte mints) 4. Vereinige Kernpunkte p,q, wenn SNN k -similarity(p,q) ε 5. Ordne Nicht-Kernpunkt p einem luster zu, wenn es ein Kernpunkt q gibt, mit SNN k -similarity(q,p) ε 6. lle anderen Nicht-Kernpunkte sind auschen DSN mit SNN-Ähnlichkeit Dichtebasiertes lustering Diskussion Unterschied zu DSN DSN mit Euklidischer Distanz: nur luster, die dichter sind als der Grenzwert (spezifiziert durch mints und ε) SNN-Dichte eines unktes p: nzahl der unkte, die mind. ε nächste Nachbarn mit p gemeinsam haben unabhängig von der eigentlichen Dichte arametrisierung Wahl von k ist kritisch: Zu klein: auch relativ gleichverteilte luster werden wegen lokalen Variationen gesplittet viele kleine luster Zu groß: wenige große, gut-separierte luster mints, ε < k 227

4 Ziel Grundlagen Konstruktion einer ierarchie von lustern (Dendrogramm), so dass immer die luster mit minimaler Distanz verschmolzen werden Dendrogramm ein aum, dessen Knoten jeweils ein luster repräsentieren, mit folgenden Eigenschaften: die Wurzel repräsentiert die ganze D die lätter repräsentieren einzelne Objekte ein innerer Knoten repräsentiert einen luster bestehend aus allen Objekten des darunter liegenden Teilbaums 228 eispiel eines Dendrogramms Grundlagen Distanz zwischen den lustern Typen von hierarchischen Verfahren ottom-up Konstruktion des Dendrogramms (agglomerative) Top-Down Konstruktion des Dendrogramms (divisive) 229

5 lgorithmus Single-ink [ain & Dubes 1988] gglomeratives hierarchisches lustering 1. ilde initiale luster, die jeweils aus einem Objekt bestehen, und bestimme die Distanzen zwischen allen aaren dieser luster. 2. ilde einen neuen luster aus den zwei lustern, welche die geringste Distanz zueinander haben. 3. estimme die Distanz zwischen dem neuen luster und allen anderen lustern. 4. Wenn alle Objekte in einem einzigen luster befinden: ertig, andernfalls wiederhole ab Schritt Distanzfunktionen für luster Die Verfahren unterscheiden sich anhand ihrer Distanzfunktionen für luster Single ink ompleteink verage ink Sei eine Distanzfunktion dist(x,y) für aare von Objekten gegeben Seien X, Y luster, d.h. Mengen von Objekten. 231

6 Definition: Single-ink Distanz dists( X, Y ) = min x X, y Y dist( x, y) Eigenschaften: Effiziente mplementierung (z.. SNK): O(n 2 ) Single-ink Effekt: kettenförmige luster, luster werden durch wenige, kettenförmig verteilte Objekte vereinigt luster mit starker Streuung luster mit langgezogener Struktur 232 Definition: dist( X, Y ) = Eigenschaften: omplete-ink Distanz max x X, y Y dist( x, y) Effiziente mplementierung (z.. NK): O(n 2 ) omplete-ink Effekt Kleine, stark abgegrenzte luster Gleichgroße, konvexe luster 233

7 verage-ink Distanz Definition: dist( X, Y ) = X 1 Y x X, y Y dist( x, y) Eigenschaften: Keine effiziente mplementierung Kompromiss zwischen Single- und omplete-ink nsatz 234 Diskussion + erfordert keine Kenntnis der nzahl k der luster + findet nicht nur ein flaches lustering, sondern eine ganze ierarchie + ein einzelnes lustering kann aus dem Dendrogramm gewonnen werden, z.. mit ilfe eines horizontalen Schnitts durch das Dendrogramm (erfordert aber wieder nwendungswissen) - Entscheidungen können nicht zurückgenommen werden - Single-ink-Effekte, omplete-ink-effekte - neffizienz aufzeitkomplexität von mindestens O(n 2 ) für n Objekte 235

8 Dichtebasiertes hierarchisches lustering [nkerst, reunig, Kriegel & Sander 1999] für einen konstanten Mints-Wert sind dichte-basierte luster bzgl. eines kleineren ε vollständig in lustern bzgl. eines größeren ε enthalten 1 Mints = 3 2 ε2 ε1 in einem DSN-ähnlichen Durchlauf gleichzeitig das lustering für verschiedene Dichte-arameter bestimmen zuerst die dichteren Teil-luster, dann den dünneren est-luster kein Dendrogramm, sondern eine auch noch bei sehr großen Datenmengen übersichtliche Darstellung der luster-ierarchie 236 Grundbegriffe Kerndistanz eines Objekts p bzgl. ε und Mints Kerndistanz ε, Mints UNDENE T, wenn Q( o,ε) < Mints ( o) = MintsDist anz( o), sonst Erreichbarkeitsdistanz eines Objekts p relativ zu einem Objekt o Erreichbarkeitsdistanz ε, Mints UNDENET, wenn Q( o,ε) < Mints ( p, o) = max{ Kerndistanz( o), dist( o, p)}, sonst Mints = 5 q p o ε Kerndistanz(o) Erreichbarkeitsdistanz(p,o) Erreichbarkeitsdistanz(q,o) 237

9 lusterordnung OTS liefert nicht direkt ein (hierarchisches) lustering, sondern eine lusterordnung bzgl. ε und Mints lusterordnung bzgl. ε und Mints beginnt mit einem beliebigen Objekt als nächstes wird das Objekt besucht, das zur Menge der bisher besuchten Objekte die minimale Erreichbarkeitsdistanz besitzt ore-distance Kerndistanz eachability-distance Erreichbarkeitsdistanz lusterordnung 238 Datenstrukturen lgorithmus OTS Seedist speichert unkte mit aktueller Erreichbarkeitsdistanz aufsteigend sortiert lusterorder resultierende lusterordnung wird schrittweise aufgebaut auptschleife: Seedist = ; WE es gibt noch unmarkierte Objekte in D DO Seedist = TEN füge beliebiges noch unmarkiertes Objekt in lusterorder ein mit Erreichbarkeitsdistanz ; ESE füge erstes Objekt aus der Seedist mit aktueller Erreichbarkeitsdistanz in lusterorder ein; // sei obj das zuletzt in lusterorder eingefügte Objekt markiere obj als bearbeitet; O neighbor Q(obj, ε) DO Seedist.update(neighbor, obj); // insert/update neighbor in Seedist mit referenzobjekt obj; 239

10 lgorithmus OTS Einfügen/Updaten eines Objekts o in Seedist eachte: ür alle Objekte p in Seedist ist die aktuelle Erreichbarkeitsdistanz p.rdist gespeichert. Seedist ist nach p.rdist aufsteigend sortiert (als eap organisiert) eferenzobjekt: obj Seedist :: update(o, obj) erechne Erreichbarkeitsdistanz ε,mints (o, obj) =: rdistneu_o; o ist bereits in Seedist TEN rdistneu_o o.rdist TEN o.rdist := rdistneu_o; verschiebe o in Seedist (nach vorne); // aufsteigen im eap ESE // o ist noch nicht in Seedist füge o mit o.rdist := rdistneu_o in Seedist ein; // normales Einfügen in eap 240 ε=, Mints = 3 E D G seed list: 241

11 ε=, Mints = 3 E G D coredistance ε seed list: (,40) (, 40) 242 ε=, Mints = 3 E D G seed list: (, 40) (, 40) 243

12 ε=, Mints = 3 D E G seed list: (, 20) (K, 20) (, 31) (, 40) (M, 40) (, 43) 2 ε=, Mints = 3 E D G seed list: (, 19) (K, 20) (, 21) (M, 30) (, 31) (, 40) 245

13 ε=, Mints = 3 D E G seed list: (M, 18) (K, 18) (, 20) (, 21) (N, 35) (, 40) 246 ε=, Mints = 3 D E G M seed list: (K, 18) (N, 19) (, 20) (, 21) (, 40) 247

14 ε=, Mints = 3 D E G M K seed list: (N, 19) (, 20) (, 21) (, 40) 248 ε=, Mints = 3 E D G M K N seed list: (, 20) (, 21) (, 40) 249

15 ε=, Mints = 3 D E G M K N seed list: (, 21) (, 40) 250 ε=, Mints = 3 E D G M K N seed list: (, 40) 251

16 ε=, Mints = 3 D E G M K N seed list: (D, 22) (, 22) (E, 30) (G, 35) 252 ε=, Mints = 3 E D G M K N D seed list: (, 22) (E, 22) (G, 32) 253

17 ε=, Mints = 3 D E G M K N D seed list: (G, 17) (E, 22) 254 ε=, Mints = 3 E D G M K N D G seed list: (E, 15) (, 43) 255

18 ε=, Mints = 3 D E G M K N D G E seed list: (, 43) 256 ε=, Mints = 3 E D G M K N D G E seed list: - 257

19 ε=, Mints = 3 D E G M K N D G E 258 Erreichbarkeits-Diagramm Zeigt die Erreichbarkeitsdistanzen (bzgl. ε und Mints) der Objekte als senkrechte, nebeneinanderliegende alken in der durch die lusterordnung der Objekte gegebenen eihenfolge Erreichbarkeitsdistanz Erreichbarkeitsdistanz lusterordnung 259

20 arameter-sensitivität Mints = 10, ε = Mints = 10, ε = 5 Mints = 2, ε = optimale arameter kleineres ε kleineres Mints lusterordnung ist robust gegenüber den arameterwerten gute esultate wenn arameterwerte groß genug 260 euristische arameter-estimmung ε wähle größte Mints-Distanz aus einem Sample oder berechne durchschnittliche Mints-Distanz für gleichverteilte Daten Mints glätte Erreichbarkeits-Diagramm vermeide single- bzw. Mints-link Effekt

21 Manuelle nalyse der luster Mit Erreichbarkeits-Diagramm gibtesluster? wieviele luster? sind die luster hierarchisch geschachtelt? wie groß sind die luster? Erreichbarkeits-Diagramm 262 utomatisches Entdecken von lustern ξ-luster [nkerst, reunig, Kriegel, Sander 99] Teilsequenz der lusterordnung beginnt in einem Gebiet ξ-steil abfallender Erreichbarkeitsdistanzen endet in einem Gebiet ξ-steil steigender Erreichbarkeitsdistanzen bei etwa demselben absoluten Wert enthält mindestens Mints unkte 263

22 utomatisches Entdecken von lustern lustertree [Sander, Qin, u, Niu, Kovarsky 02] luster sind geteilt durch signifikante lokale Maxima: Minimale nzahl der unkte zwischen 2 Maxima ichtwert: 0.5 % der Datenbank Verhältnis zwischen Erreichbarkeitsdistanz des lokalen Maximas und der durchschnittlichen Erreichbarkeitsdistanzen links und rechts des Maximas in der lusterordnung ichtwert: 0.75 significant local maxima luster-tree insignificant local maxima 4 5 oot Gradientlustering utomatisches Entdecken von lustern [recheisen, Kriegel, Kröger, feifle 04] Teilsequenzen der lusterordnung beginnt/endet mit nflexion oint Gradientvektor nflexion ndex nflexion oint, wenn (o) > t Gradient Determinante allunterscheidung: (o) > t and GD(o) > 0 Startpunkt oder erster unkt außerhalb des lusters (o) > t and GD(o) < 0 Endpunkt oder zweiter unkt innerhalb des lusters g(x,y) g(y,z) g(z,a) x y z a width g(x,y) = y. x. (y) = cos ϕ( g(x,y), g(y,z) ) GD( g(x,y), g(y,z) ) = ϕ 2 ϕ 1 width y. x. - width y. z. cos ϕ 1 = cos ϕ 265 2

23 5.5 esondere nwendungen Übersicht lustering mit kategorischer ttribute Grundlagen, lgorithmus k-modes Verallgemeinertes dichtebasiertes lustering Grundlagen, lgorithmus GDSN, eispiele lustering mit kategorischen ttributen Grundlagen [uang 1997] k-medoid-lgorithmus wesentlich langsamer als k-means- lgorithmus k-means-verfahren nicht direkt für kategorische ttribute anwendbar gesucht ist ein nalogon zum entroid eines lusters Numerische ttribute entroid x einer Menge von Objekten minimiert TD(, x) = dist( p, x) p Kategorische ttribute Mode m einer einer Menge von Objekten minimiert TD(, m) = dist( p, m) p ( m ist nicht unbedingt ein Element der Menge ) m = (m 1,..., m d ), dist eine Distanzfunktion für kategorische ttribute, z.. d 0 falls xi = y dist( x, y) = δ( xi, yi) mit δ( xi, yi) = i= 1 1 sonst i 267

24 5.5.1 lustering mit kategorischen ttributen estimmung des Modes Die unktion TD(, m) = dist( p, m) p wird minimiert genau dann, wenn für m = (m 1,..., m d ) und für alle ttribute i, i = 1,..., d, gilt: es gibt in i keinen häufigeren ttributwert als m i Der Mode einer Menge von Objekten ist nicht eindeutig bestimmt. eispiel Objektmenge {(a, b), (a,c), (c, b), (b,c)} (a, b) ist ein Mode (a, c) ist ein Mode lustering mit kategorischen ttributen nitialisierung lgorithmus k-modes keine zufällige artitionierung sondern k Objekte aus der Datenmenge als initiale Modes luster-epräsentanten Mode anstelle des entroids Distanzfunktion anstelle der quadrierten euklidischen Distanz Distanzfunktion für Datensätze mit kategorischen ttributen 269

25 5.5.2 Verallgemeinertes dichtebasiertes lustering lustering ausgedehnter Objekte Mittelpunkt- Transformation erücksichtigung der läche und nicht-räumlicher ttribute natürlicher egriff der Verbundenheit Verallgemeinertes dichtebasiertes lustering lgorithmus GDSN [Sander, Ester, Kriegel & Xu 1998] Grundidee für dichte-basierte luster : ε-nachbarschaft enthält mindestens Mints unkte Distanz ε N ε Mints Nred(o,p) reflexiv, symmetrisch für aare von Objekten Verallgemeinerung MinWeight(N) beliebiges rädikat für Mengen von Objekten Verallgemeinerte Nachbarschaft N Nred (o) = {p Nred(o, p)} Verallgemeinerte minimale Kardinalität MinWeight(N Nred (o)) Nred-Nachbarschaft hat mindestens das Gewicht MinWeight 271

26 5.5.2 Verallgemeinertes dichtebasiertes lustering eispiele Nred dist(p,q) ε intersect(p,q) Nachbarzelle und ähnliche arbe MinWeight cardinality(...) Minoints Summe der lächen true 5 % der Gesamtfläche Verallgemeinertes dichtebasiertes lustering lgorithmus GDSN dasselbe algorithmische Schema wie DSN anstelle einer Q(o,ε)-nfrage eine N Nred -nfrage anstelle der edingung Q(o,ε) Mints das MinWeight-rädikat auswerten aufzeitkomplexität O(n logn) bei geeigneter Unterstützung der N Nred -nfrage eliebige Nachbarschaftsprädikate denkbar 273

Dichtebasiertes Clustering. Grundlagen. Idee. Zentrale Annahmen

Dichtebasiertes Clustering. Grundlagen. Idee. Zentrale Annahmen Idee Grundlagen Cluster als Gebiete im d-dimensionalen Raum, in denen die Objekte dicht beieinander liegen getrennt durch Gebiete, in denen die Objekte weniger dicht liegen Zentrale Annahmen für jedes

Mehr

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern

Mehr

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene

Mehr

3. Clustering. 3. Clustering. 3.5 Datenbanktechniken zur Leistungssteigerung. 3.5 Datenbanktechniken zur Leistungssteigerung. Inhalt dieses Kapitels

3. Clustering. 3. Clustering. 3.5 Datenbanktechniken zur Leistungssteigerung. 3.5 Datenbanktechniken zur Leistungssteigerung. Inhalt dieses Kapitels 3 Einleitung 3 Clustering Inhalt dieses Kapitels Ziel des Clustering, Distanzfunktionen, Anwendungen, Typen von Algorithmen 32 Partitionierende Verfahren k-means, k-medoid, Expectation Maximization, Initialisierung

Mehr

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer

Mehr

4.Tutorium Multivariate Verfahren

4.Tutorium Multivariate Verfahren 4.Tutorium Multivariate Verfahren - Clusteranalyse - Hannah Busen: 01.06.2015 und 08.06.2015 Nicole Schüller: 02.06.2015 und 09.06.2015 Institut für Statistik, LMU München 1 / 17 Gliederung 1 Idee der

Mehr

Globalübungsaufgabe1 (All Pair Shortest Path):

Globalübungsaufgabe1 (All Pair Shortest Path): Prof. aa r. Ir. G. Woeginger atenstrukturen und lgorithmen SS7 Tutoriumslösung - Übung 0 (bgabe 2.07.207) T. Hartmann,. Korzeniewski,. Tauer Globalübungsaufgabe (ll Pair Shortest Path): etrachten Sie den

Mehr

(a, b)-bäume / 1. Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss.

(a, b)-bäume / 1. Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss. (a, b)-bäume / 1. Szenario: Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss. Konsequenz: Kommunikation zwischen Hauptspeicher und Festplatte - geschieht nicht Byte für Byte,

Mehr

9 Minimum Spanning Trees

9 Minimum Spanning Trees Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Graphdurchläufe Maike Buchin 22. und 27.6.2017 Graphexploration Motivation: Für viele Zwecke will man den gesamten Graphen durchlaufen, zb. um festzustellen ob er (stark) zusammenhängt.

Mehr

k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering

k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering Rückblick k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering Hierarchisches Clustering bestimmt eine Folge von Clusterings, die als Dendrogramm darstellbar

Mehr

Geometrische Algorithmen Einige einfache Definitionen: Ist ein Punkt in einem Polygon? Punkt-in-Polygon-Problem. Das Punkt-in-Polygon-Problem

Geometrische Algorithmen Einige einfache Definitionen: Ist ein Punkt in einem Polygon? Punkt-in-Polygon-Problem. Das Punkt-in-Polygon-Problem Geometrische Algorithmen Einige einfache Definitionen: Punkt: im n-dimensionalen Raum ist ein n-tupel (n Koordinaten) Gerade: definiert durch zwei beliebige Punkte auf ihr Strecke: definiert durch ihre

Mehr

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

Vorlesung Informatik 2 Algorithmen und Datenstrukturen Vorlesung Informatik 2 Algorithmen und Datenstrukturen (18 Bäume: Grundlagen und natürliche Suchbäume) Prof. Dr. Susanne Albers Bäume (1) Bäume sind verallgemeinerte Listen (jedes Knoten-Element kann mehr

Mehr

Was bisher geschah. 1. Zerlegung in monotone Polygone 2. Triangulierung der monotonen Teilpolygone

Was bisher geschah. 1. Zerlegung in monotone Polygone 2. Triangulierung der monotonen Teilpolygone Was bisher geschah Motivation, Beispiele geometrische Objekte im R 2 : Punkt, Gerade, Halbebene, Strecke, Polygon, ebene Zerlegung in Regionen (planare Graphen) maschinelle Repräsentation geometrischer

Mehr

5. Bäume und Minimalgerüste

5. Bäume und Minimalgerüste 5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein

Mehr

3.5 Datenbanktechniken zur Leistungssteigerung. 3. Clustering. 3.5 Datenbanktechniken zur Leistungssteigerung. 3. Clustering. Inhalt dieses Kapitels

3.5 Datenbanktechniken zur Leistungssteigerung. 3. Clustering. 3.5 Datenbanktechniken zur Leistungssteigerung. 3. Clustering. Inhalt dieses Kapitels 3.1 Einleitung 3. Clustering Inhalt dieses Kapitels Ziel des Clustering, Distanzfunktionen, Anwendungen, Typen von Algorithmen 3.2 Partitionierende Verfahren k-means, k-medoid, Expectation Maximization,

Mehr

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie 4/3, Folie 1 2010 Prof. Steffen Lange - HDa/FbI

Mehr

Seminar Komplexe Objekte in Datenbanken

Seminar Komplexe Objekte in Datenbanken Seminar Komplexe Objekte in Datenbanken OPTICS: Ordering Points To Identify the Clustering Structure Lehrstuhl für Informatik IX - Univ.-Prof. Dr. Thomas Seidl, RWTH-Aachen http://www-i9.informatik.rwth-aachen.de

Mehr

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :

Mehr

Lernmodul 7 Algorithmus von Dijkstra

Lernmodul 7 Algorithmus von Dijkstra Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer

Mehr

Voronoi-Diagramme INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie

Voronoi-Diagramme INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.06.2014 1 Das Postamt-Problem b(p, q) = {x 2 R 2 : xp = xq } p q h(p, q) h(q, p) = {x

Mehr

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen 5. Hashing 6. Algorithmische Geometrie 4/5, olie 1 2014 Prof. Steffen Lange - HDa/bI

Mehr

Distributed Algorithms. Image and Video Processing

Distributed Algorithms. Image and Video Processing Chapter 6 Optical Character Recognition Distributed Algorithms for Übersicht Motivation Texterkennung in Bildern und Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben

Mehr

Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln

Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Praktikum: Data Warehousing und Data Mining Clusteranalyse Clusteranalyse Idee Bestimmung von Gruppen ähnlicher Tupel in multidimensionalen Datensätzen.

Mehr

Bereichsabfragen. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie

Bereichsabfragen. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 17.05.2011 Geometrie in Datenbanken In einer Personaldatenbank

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Geradenarrangements und Dualität von Punkten und Geraden

Geradenarrangements und Dualität von Punkten und Geraden Vorlesung Algorithmische Geometrie von Punkten und Geraden INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 12.06.2012 Dualitätsabbildung Bisher haben wir Dualität für planare

Mehr

12 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang

12 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 12 (2-4)-Bäume (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 2. Die Ordnung (maximale Anzahl der Söhne eines Knotens) ist gleich 4 3. Innere Knoten haben 2 Söhne

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:

Mehr

2.4. Triangulierung von Polygonen

2.4. Triangulierung von Polygonen Als drittes Problem haben wir in Kapitel 1 die Triangulierung von Polygonen identifiziert, die etwa bei der Überwachung eines Museums durch Kameras auftritt. F70 F71 Definition und Theorie: Definition

Mehr

Geradenarrangements und Dualität von Punkten und Geraden

Geradenarrangements und Dualität von Punkten und Geraden Vorlesung Algorithmische Geometrie von Punkten und Geraden INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 12.06.2012 Dualitätsabbildung Bisher haben wir Dualität für planare

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

15. Elementare Graphalgorithmen

15. Elementare Graphalgorithmen Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen

Mehr

13 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang

13 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 13 (2-4)-Bäume (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 2. Die Ordnung (maximale Anzahl der Söhne eines Knotens) ist gleich 4 3. Innere Knoten haben 2 Söhne

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Datenstrukturen Teil 2. Bäume. Definition. Definition. Definition. Bäume sind verallgemeinerte Listen. Sie sind weiter spezielle Graphen

Datenstrukturen Teil 2. Bäume. Definition. Definition. Definition. Bäume sind verallgemeinerte Listen. Sie sind weiter spezielle Graphen Bäume sind verallgemeinerte Listen Datenstrukturen Teil 2 Bäume Jeder Knoten kann mehrere Nachfolger haben Sie sind weiter spezielle Graphen Graphen bestehen aus Knoten und Kanten Kanten können gerichtet

Mehr

Graphdurchmusterung, Breiten- und Tiefensuche

Graphdurchmusterung, Breiten- und Tiefensuche Prof. Thomas Richter 18. Mai 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 18.05.2017 Graphdurchmusterung,

Mehr

Maximale s t-flüsse in Planaren Graphen

Maximale s t-flüsse in Planaren Graphen Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen 6. Juni 2017 Guido Brückner INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg

Mehr

2. November Gradfolgen Zusammenhang Kürzeste Wege. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37

2. November Gradfolgen Zusammenhang Kürzeste Wege. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37 2. November 2011 Gradfolgen Zusammenhang Kürzeste Wege H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37 Satz von Erdős und Gallai Eine Partition einer natürlichen Zahl ist genau dann die Gradfolge

Mehr

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen. Hashing 6. Algorithmische Geometrie 4/6, Folie 1 2014 Prof. Steffen Lange - HDa/FbI

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Datenstrukturen: Anordnung von Daten, z.b. als Liste (d.h. in bestimmter Reihenfolge) Beispiel: alphabetisch sortiertes Wörterbuch... Ei - Eibe - Eidotter... als Baum (d.h.

Mehr

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick

Mehr

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009

Mehr

1 Kürzeste Pfade in Graphen

1 Kürzeste Pfade in Graphen Praktikum Algorithmen-Entwurf (Teil 3) 03.11.2011 1 1 Kürzeste Pfade in Graphen Es sei ein gerichteter Graph G = (V, E) mit V = n Knoten, E = m Kanten und Kantengewichten c : E R gegeben. Ein Pfad in G

Mehr

Ähnlichkeits- und Distanzmaße

Ähnlichkeits- und Distanzmaße Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8-1 - Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8 -

Mehr

f h c 7 a 1 b 1 g 2 2 d

f h c 7 a 1 b 1 g 2 2 d ) Man bestimme mit Hilfe des Dijkstra-Algorithmus einen kürzesten Weg von a nach h: c 7 a b f 5 h 3 4 5 i e 6 g 2 2 d Beim Dijkstra-Algorithmus wird in jedem Schritt von den noch unmarkierten Knoten jener

Mehr

Lösungen zu Kapitel 5

Lösungen zu Kapitel 5 Lösungen zu Kapitel 5 Lösung zu Aufgabe : (a) Es gibt derartige Graphen: (b) Offensichtlich besitzen 0 der Graphen einen solchen Teilgraphen. Lösung zu Aufgabe : Es sei G = (V, E) zusammenhängend und V

Mehr

Mehrwegbäume Motivation

Mehrwegbäume Motivation Mehrwegbäume Motivation Wir haben gute Strukturen (AVL-Bäume) kennen gelernt, die die Anzahl der Operationen begrenzen Was ist, wenn der Baum zu groß für den Hauptspeicher ist? Externe Datenspeicherung

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie 1 Effiziente lgorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 29.06.2006 2 Burrows-Wheeler-Kompression: Verbesserungen dreischrittiges Kompressionsverfahren Burrows- Wheeler- Transformation Globale

Mehr

Algorithmische Geometrie: Schnittpunkte von Strecken

Algorithmische Geometrie: Schnittpunkte von Strecken Algorithmische Geometrie: Schnittpunkte von Strecken Nico Düvelmeyer WS 2009/2010, 3.11.2009 3 Phasen im Algorithmenentwurf 1. Konzentration auf das Hauptproblem 2. Verallgemeinerung auf entartete Eingaben

Mehr

Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1

Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1 Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1 Aufgabe 1. / 16 P Instruktionen: 1) In dieser Aufgabe sollen Sie nur die Ergebnisse angeben. Diese können Sie direkt bei den Aufgaben notieren. 2) Sofern

Mehr

Datenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15

Datenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15 Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 18. März

Mehr

Darstellungsarten für 3D-Körper. Boundary Representation (BRep):

Darstellungsarten für 3D-Körper. Boundary Representation (BRep): Darstellungsarten für 3D-Körper Boundary Representation (BRep): Darstellung eines (verallgemeinerten) Polyeders durch das System seiner Ecken, Kanten und Facetten Abspeichern durch (Teilgraphen des) vef-graphen

Mehr

Geometrische Algorithmen

Geometrische Algorithmen Geometrische Algorithmen Thomas Röfer Motivation Scan-line-Prinzip Konvexe Hülle Distanzprobleme Voronoi-Diagramm Rückblick Manipulation von Mengen Vorrangwarteschlange Heap HeapSort swap(a, 0, 4) 1 5

Mehr

Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07

Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07 Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07 Ziel der Clusteranalyse: Bilde Gruppen (cluster) aus einer Menge multivariater Datenobjekte (stat

Mehr

Dies ist gerade der konstruktive Schritt beim Aufbau von Binomialbäumen.

Dies ist gerade der konstruktive Schritt beim Aufbau von Binomialbäumen. Linken von Bäumen: Zwei Bäume desselben Wurzel-Rangs werden unter Einhaltung der Heap-Bedingung verbunden. Sind k 1 und k 2 die Wurzeln der zwei zu linkenden Bäume, so wird ein neuer Baum aufgebaut, dessen

Mehr

7. Konzentrations- und Disparitätsmessung

7. Konzentrations- und Disparitätsmessung 7. Konzentrations- und Disparitätsmessung Betrachte: Merkmal X, bei dem alle Daten x i 0 sind und die Merkmalssumme n i=1 x i eine sinnvolle Interpretation besitzt (extensives Merkmal) 314 Beispiel: X:

Mehr

Nachbarschaft, Grad, regulär, Inzidenz

Nachbarschaft, Grad, regulär, Inzidenz Nachbarschaft, Grad, regulär, Inzidenz Definition Eigenschaften von Graphen Sei G = (V, E) ein ungerichteter Graph. 1 Die Nachbarschaftschaft Γ(u) eines Knoten u V ist Γ(u) := {v V {u, v} E}. 2 Der Grad

Mehr

Algorithmen & Komplexität

Algorithmen & Komplexität Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg

Mehr

Datenstrukturen und Algorithmen D-INFK

Datenstrukturen und Algorithmen D-INFK Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik Peter Widmayer

Mehr

Algorithmische Geometrie: Lineare Optimierung (I)

Algorithmische Geometrie: Lineare Optimierung (I) Algorithmische Geometrie: Lineare Optimierung (I) Nico Düvelmeyer WS 2009/2010, 17.11.2009 Überblick 1 Geometrie von Gießformen 2 Durchschnitte von Halbebenen 3 Inkrementeller Algorithmus Überblick 1 Geometrie

Mehr

Datenstrukturen. einfach verkettete Liste

Datenstrukturen. einfach verkettete Liste einfach verkettete Liste speichert Daten in einer linearen Liste, in der jedes Element auf das nächste Element zeigt Jeder Knoten der Liste enthält beliebige Daten und einen Zeiger auf den nächsten Knoten

Mehr

3. Minimale Spannbäume. Definition 99 T heißt minimaler Spannbaum (MSB, MST) von G, falls T Spannbaum von G ist und gilt:

3. Minimale Spannbäume. Definition 99 T heißt minimaler Spannbaum (MSB, MST) von G, falls T Spannbaum von G ist und gilt: 3. Minimale Spannbäume Sei G = (V, E) ein einfacher ungerichteter Graph, der o.b.d.a. zusammenhängend ist. Sei weiter w : E R eine Gewichtsfunktion auf den Kanten von G. Wir setzen E E: w(e ) = e E w(e),

Mehr

Datenstrukturen und Algorithmen

Datenstrukturen und Algorithmen Datenstrukturen und Algorithmen VO INF.02031UF (2-4)-Bäume robert.legenstein@igi.tugraz.at 1 7. Bäume Bäume als Datenstruktur Binärbäume Balancierte Bäume (2-4)-Bäume Anwendung: Mischbare Warteschlangen

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Prof. Martin Lercher Institut für Informatik Heinrich-Heine-Universität Düsseldorf Teil 10 Suche in Graphen Version vom 13. Dezember 2016 1 / 2 Vorlesung 2016 / 2017 2 /

Mehr

12. Flächenrekonstruktion aus 3D-Punktwolken und generalisierte Voronoi-Diagramme

12. Flächenrekonstruktion aus 3D-Punktwolken und generalisierte Voronoi-Diagramme 12. Flächenrekonstruktion aus 3D-Punktwolken und generalisierte Voronoi-Diagramme (Einfache) Voronoi-Diagramme: Motivation: gegeben: Raum R, darin Menge S von Objekten Frage nach Zerlegung von R in "Einflusszonen"

Mehr

Minimal spannender Baum

Minimal spannender Baum Minimal spannender Baum 16 1 2 21 5 11 19 6 6 3 14 33 10 5 4 18 Die Kreise zeigen die vorgesehenen Standorte neu zu errichtender Filialen einer Bank. Entlang der bestehenden Straßen sollen Telefonleitungen

Mehr

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0. Analysis D-BAUG Dr Cornelia Busch FS 2016 Serie 3 1 a) Zeigen Sie, dass der Graph von f(x, y) = 9 (x 2) 2 (y 3) 2 eine Halbkugel beschreibt und bestimmen Sie ihren Radius und ihr Zentrum z = f(x, y) =

Mehr

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit

Mehr

Rolf Wanka Sommersemester Vorlesung

Rolf Wanka Sommersemester Vorlesung Peer-to to-peer-netzwerke Rolf Wanka Sommersemester 2007 7. Vorlesung 05.06.2007 rwanka@cs.fau.de basiert auf einer Vorlesung von Christian Schindelhauer an der Uni Freiburg Lookup in CAN Verbindungsstruktur:

Mehr

...imbeispiel: Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t). liefert die Konkatenation: name int + int.

...imbeispiel: Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t). liefert die Konkatenation: name int + int. Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t)....imbeispiel: E 0 E 1 + T 1 T 0 F 2 T 1 F 2 int F 1 int name liefert die Konkatenation: name int + int. 273 Die Grammatik

Mehr

Algo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7

Algo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7 1 Kürzeste Pfade Woche 6 7 Hier arbeiten wir mit gewichteten Graphen, d.h. Graphen, deren Kanten mit einer Zahl gewichtet werden. Wir bezeichnen die Gewichtsfunktion mit l : E R. Wir wollen einen kürzesten

Mehr

Zusammenfassung des 2. Abends

Zusammenfassung des 2. Abends lgorithmen in der iologie r. Hans-Joachim öckenhauer r. ennis Komm Zusammenfassung des. bends Zürich, 0. pril 0 lignment-verfahren Für einen Überblick über die lignment-lgorithmen zur estimmung der Ähnlichkeit

Mehr

7 Weitere Baumstrukturen und Heapstrukturen

7 Weitere Baumstrukturen und Heapstrukturen 7 Weitere Baumstrukturen und Heapstrukturen Man kann kurze Suchzeiten in Baumstrukturen erreichen durch Rebalancierung bei Einfügungen und Löschungen (AVL Bäume, gewichtsbalancierte Bäume, Bruderbäume,

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Sommersemester 204 4. Vorlesung Matchings / Paarungen Kombinatorische Anwendungen des Max-Flow-Min-Cut-Theorems Prof. Dr. Alexander Wolff 2 Paarungen (Matchings) Def. Sei

Mehr

\ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E.

\ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E. Das Komplement Ḡ = (V, ( V ) \ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E. Ein Graph H = (V, E )

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP

Mehr

Kapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4.8-4.11: Andere dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.6 AVL-Bäume 4.8 Rot-Schwarz-Bäume Idee: Verwende Farben, um den Baum vertikal zu

Mehr

Datenstrukturen und Algorithmen (SS 2013)

Datenstrukturen und Algorithmen (SS 2013) Datenstrukturen und Algorithmen (SS 20) Übungsblatt 8 Abgabe: Montag, 24.06.20, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes Gruppenmitglieds

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Minimale Spannbäume Maike Buchin 18.7., 20.7.2017 Einführung Motivation: Verbinde Inseln mit Fähren oder Städte mit Schienen und verbrauche dabei möglichst wenig Länge. Problem:

Mehr

Delaunay-Triangulierungen

Delaunay-Triangulierungen Vorlesung Algorithmische Geometrie Delaunay-Triangulierungen INSTITUT FU R THEORETISCHE INFORMATIK FAKULTA T FU R INFORMATIK Martin No llenburg 10.06.2014 Grafik c Rodrigo I. Silveira 1 Dr. Martin No llenburg

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Übersicht. Begriffserklärung Motivation / Anwendungen Drei Algorithmen Zusammenfassung Fragen Quellen. Triangulierung von Steffen Ernst 2

Übersicht. Begriffserklärung Motivation / Anwendungen Drei Algorithmen Zusammenfassung Fragen Quellen. Triangulierung von Steffen Ernst 2 Triangulierung Übersicht Begriffserklärung Motivation / Anwendungen Drei Algorithmen Zusammenfassung Fragen Quellen Triangulierung von Steffen Ernst 2 Begriffserklärung Ein Graph ist trianguliert, wenn

Mehr

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik Prof. Dr. A. Taraz, Dipl-Math. A. Würfl, Dipl-Math. S. König Weihnachtsblatt Aufgabe W.1 Untersuchen Sie nachstehenden

Mehr

Geometrie I. Tobias Langer Tobias Langer Geometrie I / 59

Geometrie I. Tobias Langer Tobias Langer Geometrie I / 59 Geometrie I Tobias Langer 02.07.2010 Tobias Langer Geometrie I 02.07.2010 1 / 59 1 Schulgeometrie Punkte & Geraden Dreieck Kreis Polygon 2 Schnitt von Geraden und Strecken 3 Punkt in Polygon Tobias Langer

Mehr

Programm heute. Algorithmen und Datenstrukturen (für ET/IT) Übersicht: Graphen. Definition: Ungerichteter Graph. Definition: Ungerichteter Graph

Programm heute. Algorithmen und Datenstrukturen (für ET/IT) Übersicht: Graphen. Definition: Ungerichteter Graph. Definition: Ungerichteter Graph Programm heute Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 07 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München 7 Fortgeschrittene Datenstrukturen Graphen

Mehr

Algorithmische Geometrie

Algorithmische Geometrie Algorithmische Geometrie Martin Peternell TU Wien 31. Fortbildungstagung für Geometrie 2010, Strobl 1 Themen der Algorithmische Geometrie Entwurf von Algorithmen für geometrische Fragestellungen betreffend

Mehr

Häufige Mengen ohne Kandidatengenerierung. FP-Tree: Transaktionen. Konstruktion eines FP-Trees. FP-Tree: Items

Häufige Mengen ohne Kandidatengenerierung. FP-Tree: Transaktionen. Konstruktion eines FP-Trees. FP-Tree: Items Häufige Mengen ohne Kandidatengenerierung Jiawei Han, Micheline Kamber 2006 (2nd ed.)! Ziel 1: Kompression der Datenbank in eine Frequent-Pattern Tree Struktur (FP-Tree)! Stark komprimiert, vollständig

Mehr

Diskrete Strukturen Kapitel 2: Grundlagen (Relationen)

Diskrete Strukturen Kapitel 2: Grundlagen (Relationen) WS 2016/17 Diskrete Strukturen Kapitel 2: Grundlagen (Relationen) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_16

Mehr

Das Voronoi Diagramm. 1. Definition. 2. Eigenschaften. 3. Größe und Speicherung. 4. Konstruktion. 5. Verwendung

Das Voronoi Diagramm. 1. Definition. 2. Eigenschaften. 3. Größe und Speicherung. 4. Konstruktion. 5. Verwendung Das Voronoi Diagramm 1. Definition 2. Eigenschaften 3. Größe und Speicherung 4. Konstruktion 5. Verwendung Das Voronoi- Diagramm Voronoi Regionen Euklidische Distanz: d(p,q) = (px-qx)^2+(py-qy)^2 Das Voronoi-Diagramm

Mehr

Wasserscheiden-Ansätze zur Bildsegmentierung I

Wasserscheiden-Ansätze zur Bildsegmentierung I Seminar Bildsegmentierung und Computer Vision Wasserscheiden-Ansätze zur Bildsegmentierung I Stefan Sugg 19.12.2005 Gliederung 1. Einführung 2. Morphologische Grundlagen 3. Simulation durch Überflutung

Mehr

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

Vorlesung Informatik 2 Algorithmen und Datenstrukturen Vorlesung Informatik 2 Algorithmen und Datenstrukturen (23 Bruder-Bäume, B-Bäume) Prof. Dr. Susanne Albers Balancierte Bäume Eine Klasse von binären Suchbäumen ist balanciert, wenn jede der drei Wörterbuchoperationen

Mehr

Übungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17

Übungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17 Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Vorlesung Theoretische Grundlagen der Informatik im WS 16/17 Ausgabe 22. Dezember 2016 Abgabe 17. Januar 2017, 11:00 Uhr

Mehr

Clustern: Voraussetzungen

Clustern: Voraussetzungen Clustering Gruppen (Cluster) ähnlicher Elemente bilden Elemente in einem Cluster sollen sich möglichst ähnlich sein, u. den Elementen in anderen Clustern möglichst unähnlich im Gegensatz zu Kategorisierung

Mehr

3 Klassifikation wichtiger Optimierungsprobleme

3 Klassifikation wichtiger Optimierungsprobleme 3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Grundlagen zur Delaunay-Triangulierung und zur konvexen Hülle. zum Begriff des Voronoi-Diagramms (vgl. auch Vorlesung "Algorithmische Geometrie"):

Grundlagen zur Delaunay-Triangulierung und zur konvexen Hülle. zum Begriff des Voronoi-Diagramms (vgl. auch Vorlesung Algorithmische Geometrie): Grundlagen zur Delaunay-Triangulierung und zur konvexen Hülle zum Begriff des Voronoi-Diagramms (vgl. auch Vorlesung "Algorithmische Geometrie"): 1 Erzeugung des Voronoi-Diagramms (siehe Vorlesung "Algorithmische

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr