Kapitel ML: X (Fortsetzung)
|
|
- Klaudia Fürst
- vor 5 Jahren
- Abrufe
Transkript
1 Kapitel ML: X (Fortsetzung) X. Cluster-Analyse Einordnung Data Mining Einführung in die Cluster-Analyse Hierarchische Verfahren Iterative Verfahren Dichtebasierte Verfahren Cluster-Evaluierung ML: X-107 Cluster Analysis c STEIN
2 Prinzipien der Fusionierung hierarchisch iterativ agglomerativ divisiv exemplarbasiert austauschbasiert Single-Link, Group Average Min-Cut-Analyse k-means, k-medoid Kerninghan-Lin Cluster- Analyse dichtebasiert punktdichtebasiert anziehungsbasiert DBSCAN MajorClust metasuchegesteuert gradientengesteuert konkurrenzgesteuert Simulated Annealing genetische Algorithmen statistisch Gauß-mischverteilt... ML: X-108 Cluster Analysis c STEIN
3 Dichtebasierte Verfahren versuchen, den Graphen G = V,E,w bzw. die Punktmenge V in Bereiche gleicher Dichte aufzuteilen. Ansätze zur Dichteschätzung: parameterbasiert: die unterliegende Verteilung ist bekannt parameterlos: Histogramme (Konstruktion von Bar-Charts), Kerndichteschätzer (Überlagerung kontinuierlicher Funktionen) ML: X-109 Cluster Analysis c STEIN
4 Dichtebasierte Verfahren versuchen, den Graphen G = V,E,w bzw. die Punktmenge V in Bereiche gleicher Dichte aufzuteilen. Ansätze zur Dichteschätzung: parameterbasiert: die unterliegende Verteilung ist bekannt parameterlos: Histogramme (Konstruktion von Bar-Charts), Kerndichteschätzer (Überlagerung kontinuierlicher Funktionen) Beispiel (karibische Inseln): ML: X-110 Cluster Analysis c STEIN
5 Dichteschätzung mit Gauß schem Kern für das Beispiel Cuba Dominican Republic Puerto Rico ML: X-111 Cluster Analysis c STEIN
6 Dichteschätzung mit Gauß schem Kern für das Beispiel Cuba Dominican Republic Puerto Rico ML: X-112 Cluster Analysis c STEIN
7 Dichteschätzung mit Gauß schem Kern für das Beispiel Cuba Dominican Republic Puerto Rico ML: X-113 Cluster Analysis c STEIN
8 Dichteschätzung mit Gauß schem Kern für das Beispiel Cuba Dominican Republic Puerto Rico ML: X-114 Cluster Analysis c STEIN
9 DBSCAN: Prinzip der Dichteschätzung [Ester et al. 1996] Sei N ε (v) die ε-nachbarschaft eine Punktes v. Unterscheidung von drei Punkttypen: Core point Noise point Border point ε v v v 1. v ist Kernpunkt (core point) N ε (v) MinPts 2. v ist Rauschen (noise point) v ist von keinem Kernpunkt aus dichteerreichbar (density-reachable) 3. v ist Randpunkt (border point) in allen anderen Fällen ML: X-115 Cluster Analysis c STEIN
10 DBSCAN: Prinzip der Dichteschätzung Ein Punkt u ist dichteerreichbar von einem Punkt v, falls gilt: (a) u N ε (v), wobei v ein Kernpunkt ist, oder (b) es gibt eine Menge von Punkten {v 1,...,v l }: v i+1 N ε (v i ) und v i ist Kernpunkt, i =1,...,l-1, und v 1 = v, v l = u. ε v u Bedingung (b) läßt sich als transitive Anwendung von Bedingung (a) auffassen. ML: X-116 Cluster Analysis c STEIN
11 DBSCAN: Cluster-Interpretation Ein Cluster C V erfüllt folgende Bedingungen: 1. u, v : Falls v C und u dichteerreichbar von v, dann ist u C. C v u v u Maximalitätsbedingung ML: X-117 Cluster Analysis c STEIN
12 DBSCAN: Cluster-Interpretation Ein Cluster C V erfüllt folgende Bedingungen: 1. u, v : Falls v C und u dichteerreichbar von v, dann ist u C. C v u v u Maximalitätsbedingung 2. u, v : u ist dichteverbunden mit v, d. h., es existiert ein Punkt t von dem u und v dichteerreichbar sind. C 1 C 2 v u v u Zusammenhangsbedingung ML: X-118 Cluster Analysis c STEIN
13 DBSCAN: Algorithmus Input: Output: G = V,E,w. Weighted graph. d. Distance function for nodes in V. ε. Neigborhood radius. MinPts. Lower bound for point number in ε-neigborhood. γ : V Z. Cluster assignment function. 1. i =0 2. WHILE v :(v V γ(v) = ) DO // = undefined, unclassified 3. v = choose_unclassified_point(v ) 4. N ε (v) =neighborhood(g, d, v, ε) 5. IF N ε (v) MinPts THEN // v is core point 6. i = i C i = density_reachable_hull(g, d, N ε (v)) // form a new cluster 8. FOREACH v C i DO γ(v) =i 9. ELSE γ(v) = 1 // v is _preliminarily_ classified as noise 10. ENDDO 11. RETURN(γ) ML: X-119 Cluster Analysis c STEIN
14 DBSCAN ML: X-120 Cluster Analysis c STEIN
15 DBSCAN ML: X-121 Cluster Analysis c STEIN
16 DBSCAN ML: X-122 Cluster Analysis c STEIN
17 DBSCAN ML: X-123 Cluster Analysis c STEIN
18 DBSCAN ML: X-124 Cluster Analysis c STEIN
19 DBSCAN Core point Border point ML: X-125 Cluster Analysis c STEIN
20 DBSCAN Core point Border point ML: X-126 Cluster Analysis c STEIN
21 DBSCAN Core point Border point Noise point ML: X-127 Cluster Analysis c STEIN
22 DBSCAN Core point Border point Noise point ML: X-128 Cluster Analysis c STEIN
23 DBSCAN Noise point ML: X-129 Cluster Analysis c STEIN
24 Prinzipien der Fusionierung hierarchisch iterativ agglomerativ divisiv exemplarbasiert austauschbasiert Single-Link, Group Average Min-Cut-Analyse k-means, k-medoid Kerninghan-Lin Cluster- Analyse dichtebasiert punktdichtebasiert anziehungsbasiert DBSCAN MajorClust metasuchegesteuert gradientengesteuert konkurrenzgesteuert Simulated Annealing genetische Algorithmen statistisch Gauß-mischverteilt... ML: X-130 Cluster Analysis c STEIN
25 MajorClust: Prinzip der Dichteschätzung [Stein/Niggemann 1999] Die gewichteten Kanten im Graph G = V,E,w werden als Kräfte interpretiert; Knoten desselben Clusters bündeln ihrer Kräfte. Illustration: eindeutige Zugehörigkeitsentscheidung (mit Agglomeration): ML: X-131 Cluster Analysis c STEIN
26 MajorClust: Prinzip der Dichteschätzung [Stein/Niggemann 1999] Die gewichteten Kanten im Graph G = V,E,w werden als Kräfte interpretiert; Knoten desselben Clusters bündeln ihrer Kräfte. Illustration: eindeutige Zugehörigkeitsentscheidung (mit Agglomeration): eindeutige Zugehörigkeitsentscheidung (mit Cluster-Wechsel): ML: X-132 Cluster Analysis c STEIN
27 MajorClust: Prinzip der Dichteschätzung [Stein/Niggemann 1999] Die gewichteten Kanten im Graph G = V,E,w werden als Kräfte interpretiert; Knoten desselben Clusters bündeln ihrer Kräfte. Illustration: eindeutige Zugehörigkeitsentscheidung (mit Agglomeration): eindeutige Zugehörigkeitsentscheidung (mit Cluster-Wechsel): mehrdeutige Zugehörigkeit: ML: X-133 Cluster Analysis c STEIN
28 MajorClust: Algorithmus Input: Output: G = V,E,w. Weighted graph. d. Distance function for nodes in V. γ : V N. Cluster assignment function. 1. i =0, t = False 2. FOREACH v V DO i = i +1, γ(v) =i ENDDO 3. UNLESS t DO 4. t = True 5. FOREACH v V DO 6. γ = argmax i: i {1,..., V } {u,v}:{u,v} E γ(u)=i w(u, v) 7. IF γ(v) γ THEN γ(v) =γ, t = False ENDIF // relabeling 8. ENDDO 9. ENDDO 10. RETURN(γ) ML: X-134 Cluster Analysis c STEIN
29 MajorClust ML: X-135 Cluster Analysis c STEIN
30 MajorClust ML: X-136 Cluster Analysis c STEIN
31 MajorClust ML: X-137 Cluster Analysis c STEIN
32 MajorClust ML: X-138 Cluster Analysis c STEIN
33 MajorClust ML: X-139 Cluster Analysis c STEIN
34 MajorClust ML: X-140 Cluster Analysis c STEIN
35 MajorClust ML: X-141 Cluster Analysis c STEIN
36 MajorClust ML: X-142 Cluster Analysis c STEIN
37 MajorClust ML: X-143 Cluster Analysis c STEIN
38 MajorClust ML: X-144 Cluster Analysis c STEIN
39 MajorClust ML: X-145 Cluster Analysis c STEIN
40 MajorClust ML: X-146 Cluster Analysis c STEIN
41 MajorClust: Prinzip der Dichteschätzung (Fortsetzung) Jedes C = {C 1,...,C k } induziert k Teilgraphen. MajorClust ist eine Heuristik zur Maximierung des gewichteten partiellen Kantenzusammenhangs, Λ(C). Λ(C) = k C i λ i i=1 ML: X-147 Cluster Analysis c STEIN
42 Dichtebasierte Verfahren MajorClust: Prinzip der Dichteschätzung (Fortsetzung) Jedes C = {C 1,...,C k } induziert k Teilgraphen. MajorClust ist eine Heuristik zur Maximierung des gewichteten partiellen Kantenzusammenhangs, Λ(C). Λ(C) = k C i λ i i=1 ML: X-148 Cluster Analysis c STEIN
43 MajorClust: Prinzip der Dichteschätzung (Fortsetzung) Jedes C = {C 1,...,C k } induziert k Teilgraphen. MajorClust ist eine Heuristik zur Maximierung des gewichteten partiellen Kantenzusammenhangs, Λ(C). Λ(C) = k C i λ i λ 1 = 1 i=1 λ 2 = 2 λ 2 = 1 λ 1 = 2 λ 3 = 2 λ 1 = 2 λ 2 = 3 ML: X-149 Cluster Analysis c STEIN
44 MajorClust: Prinzip der Dichteschätzung (Fortsetzung) Jedes C = {C 1,...,C k } induziert k Teilgraphen. MajorClust ist eine Heuristik zur Maximierung des gewichteten partiellen Kantenzusammenhangs, Λ(C). Λ(C) = k C i λ i λ 1 = 1 i=1 λ 2 = 2 Λ = = 11 λ 2 = 1 λ 1 = 2 λ 3 = 2 Λ = = 14 λ 1 = 2 λ 2 = 3 Λ = Λ* = = 20 ML: X-150 Cluster Analysis c STEIN
45 Dichtebasierte Verfahren MajorClust: Prinzip der Dichteschätzung (Fortsetzung) C i Ci C i Min-Cut-Clustering Λ-Maximierung ML: X-151 Cluster Analysis c STEIN
46 Dichtebasierte Verfahren MajorClust: Prinzip der Dichteschätzung (Fortsetzung) C i Ci C i Min-Cut-Clustering Λ-Maximierung Satz 7 (Strong Splitting Condition [Stein/Niggemann 1999]) Sei C = {C 1,...,C k } eine Partitionierung eines Graphen G = V,E,w ; weiterhin bezeichne λ(g) den Kantenzusammenhang von G und λ 1,...,λ k die Kantenzusammenhänge der von den C 1,...,C k induzierten Subgraphen. Gilt λ(g) < min{λ 1,...,λ k } (Strong Splitting Condition), so liefert Λ-Maximierung eine Aufteilung am minimalen Cut. ML: X-152 Cluster Analysis c STEIN
47 DBSCAN versus MajorClust: niedrigdimensionale Daten Karte der karibischen Inseln, etwa Punkte: ML: X-153 Cluster Analysis c STEIN
48 DBSCAN versus MajorClust: niedrigdimensionale Daten Karte der karibischen Inseln, etwa Punkte: DBSCAN: ε = 3.0, MinPts = 3 ε = 5.0, MinPts = 4 ε = 10.0, MinPts = 5 ML: X-154 Cluster Analysis c STEIN
49 DBSCAN versus MajorClust: niedrigdimensionale Daten Problematik geeigneter ε-werte bei DBSCAN: ε = 3.0, MinPts = 3 ε = 3 v Zwei separate Cluster wurden gefunden. ε = 8 v Die Cluster werden vereinigt. u ML: X-155 Cluster Analysis c STEIN
50 DBSCAN versus MajorClust: niedrigdimensionale Daten Karte der karibischen Inseln, etwa Punkte: MajorClust: Initialisierung ML: X-156 Cluster Analysis c STEIN
51 DBSCAN versus MajorClust: niedrigdimensionale Daten Problematik der globalen Analyse (keine Beschränkung auf eine ε-nachbarschaft) bei MajorClust: t = 16 t = 16 v ML: X-157 Cluster Analysis c STEIN
52 DBSCAN versus MajorClust: hochdimensionale Daten Dokumentenkategorisierung mit dem Reuters-Korpus: 1000 Dokumente 10 Kategorien: Politik, Kultur, Wirtschaft, etc. die Dokumente sind gleichverteilt, gehören genau zu einer Kategorie Dimension des Merkmalraums: > DBSCAN: degeneriert mit steigender Zahl der Dimensionen Ursache ist die Bestimmung der ε-nachbarschaft Ausweg ist eine Dimensionreduktion, z. B. eine Einbettung der Daten mittels multidimensionaler Skalierung (MDS) ML: X-158 Cluster Analysis c STEIN
53 DBSCAN versus MajorClust: hochdimensionale Daten Klassifikationsergebnisse (F -Measure), aufgetragen über Dimensionalität: F-Measure (52.1) 3 (49.1) 4 (44.3) 5 (43.5) 6 (40.7) 7 (37.6) 8 (35.1) 9 (34.2) 10 (11.6) 11 (10.8) 12 (10.2) 13 (9.6) Number of dimensions, (Stress) MajorClust (original data) MajorClust (embedded data) DBSCAN (embedded data) [Stein/Busch 2005] ML: X-159 Cluster Analysis c STEIN
54 Bemerkungen: Das Problem der Nachbarschaftssuche in hochdimensionalen Räumen ist meistens nicht effizient lösbar: Ab Dimensionen größer als ist das lineare Durchsuchen aller Objekte effizienter als die Verwendung von hochentwickelten, raumpartitionierenden Datenstrukturen wie R-Tree, X-Tree, Quadtree, KD-Tree, etc. Einen Ausweg bieten die Ansätze wie Locality-Sentitve-Hashing oder Fuzzy-Fingerprints. Siehe auch: [Weber 99] [Gionis/Indyk/Motwani 99-04] [Stein 05] [Stein/SMZE 05] DBSCAN verwendet zur Bestimmung der ε-nachbarschaft die R-Tree-Datenstruktur. Diese Datenstruktur leistet einen wesentlichen (wenn nicht sogar den größten) Teil der Cluster- Analyse innerhalb von DBSCAN. Möchte man DBSCAN für hochdimensionale Daten verwenden, ist eine Einbettung der Daten in einen niedrigdimensionalen Raum unvermeidbar. Dabei ist zu bedenken, daß eine Dimensionsreduktion durch Einbettung rechenintensiv ist und das gute Laufzeitverhalten von DBSCAN zunichte macht.
Kapitel ML: X (Fortsetzung) Dichtebasierte Verfahren. Dichtebasierte Verfahren. ML: X Cluster Analysis c STEIN X.
Kapitel ML: X (Fortsetzung) X. Cluster-Analyse Einordnung Data Mining Einführung in die Cluster-Analyse Hierarchische Verfahren Iteratie Verfahren Cluster-Ealuierung 107 Prinzipien der Fusionierung hierarchisch
MehrKapitel IR:III (Fortsetzung)
Kapitel IR:III (Fortsetzung) III. Retrieval-Modelle Modelle und Prozesse im IR Klassische Retrieval-Modelle Bool sches Modell Vektorraummodell Retrieval-Modelle mit verborgenen Variablen Algebraisches
MehrHauptseminar KDD SS 2002
Hauptseminar KDD SS 2002 Prof. Dr. Hans-Peter Kriegel Eshref Januzaj Karin Kailing Peer Kröger Matthias Schubert Session: Clustering HS KDD, Ludwig-Maximilians-Universität München, SS 2002 1 Inhalt Einleitung
Mehrk-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering
Rückblick k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering Hierarchisches Clustering bestimmt eine Folge von Clusterings, die als Dendrogramm darstellbar
MehrDichtebasiertes Clustering. Grundlagen. Idee. Zentrale Annahmen
Idee Grundlagen Cluster als Gebiete im d-dimensionalen Raum, in denen die Objekte dicht beieinander liegen getrennt durch Gebiete, in denen die Objekte weniger dicht liegen Zentrale Annahmen für jedes
MehrExploration und Klassifikation von BigData
Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)
Mehr... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern
Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern
MehrAnalyse dichtebasierter Clusteralgorithmen am Beispiel von DBSCAN und MajorClust. Michael Busch Studienarbeit WS 2004/2005 Universität Paderborn
Analyse dichtebasierter Clusteralgorithmen am Beispiel von DBSCAN und MajorClust Michael Busch Studienarbeit WS 2004/2005 Universität Paderborn 22. März 2005 ii Analyse dichtebasierter Clusteralgorithmen
Mehr1. Klausur zur Vorlesung Algorithmentechnik Wintersemester 2008/2009
. Klausur zur Vorlesung Algorithmentechnik Wintersemester 008/009 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie den Aufkleber mit Ihrem
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrGraphenalgorithmen I
Graphenalgorithmen I Vortrag im Seminar Hallo Welt! für Fortgeschrittene 7. Juni 211 Graphenalgorithmen I 1/33 Motivation Problem Wie komme ich am schnellsten ins Kanapee? Problem Wie kommt ein Datenpaket
MehrEinführung in das Data Mining Clustering / Clusteranalyse
Einführung in das Data Mining Clustering / Clusteranalyse Sascha Szott Fachgebiet Informationssysteme HPI Potsdam 21. Mai 2008 Teil I Einführung Clustering / Clusteranalyse Ausgangspunkt: Menge O von Objekten
MehrDas Heiratsproblem. Definition Matching
Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung
MehrAlgorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016
Algorithmen und Datenstrukturen 2 Übung 1 Stefan Florian Palkovits, BSc 0926364 e0926364@student.tuwien.ac.at 12. Juni 2016 Aufgabe 1: Es existiert eine Reduktion von Problem A auf Problem B in O(n 3 +
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
MehrNP-vollständige Probleme
Effiziente Algorithmen Lösen NP-vollständiger Probleme 256 NP-vollständige Probleme Keine polynomiellen Algorithmen, falls P NP. Viele wichtige Probleme sind NP-vollständig. Irgendwie müssen sie gelöst
MehrSeminar Komplexe Objekte in Datenbanken
Seminar Komplexe Objekte in Datenbanken OPTICS: Ordering Points To Identify the Clustering Structure Lehrstuhl für Informatik IX - Univ.-Prof. Dr. Thomas Seidl, RWTH-Aachen http://www-i9.informatik.rwth-aachen.de
MehrClusteranalyse für Netzwerke
Alexandra Rebecca Klages Clusteranalyse für Netzwerke PETER LANG Internationaler Verlag der Wissenschaften Inhaltsverzeichnis 1 Einleitung 1 2 Grundlagen 7 2.1 Netzwerktheorie 7 2.1.1 Definitionen 7 2.1.2
MehrAlgorithmen für Sensornetze
Algorithmen für Sensornetze Markus Völker 02. Februar 2010 Lokalisierung in Gebäuden Lokalisierung Ausgangssituation? Lokalisierung Ziel! Lokalisierung Signalabfall in Gebäuden Signalabfall mit ca. 1/d
MehrAnalysis of Crash Simulation Data using Spectral Embedding with Histogram Distances
Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances Luisa Schwartz Universität Bonn Institut für Numerische Simulation Fraunhofer SCAI 25. September 2014 Luisa Schwartz
MehrKapitel MK:IV. IV. Modellieren mit Constraints
Kapitel MK:IV IV. Modellieren mit Constraints Einführung und frühe Systeme Konsistenz I Binarization Generate-and-Test Backtracking-basierte Verfahren Konsistenz II Konsistenzanalyse Weitere Analyseverfahren
MehrPunktlokalisierung. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 24.05.2011 Motivation Gegeben eine Position p = (p x, p y )
MehrKapitel IV Minimale Spannbäume
Kapitel IV Minimale Spannbäume 1. Grundlagen Ein Graph G = (V, E) besteht aus einer Menge V von Knoten und einer Menge E von Kanten. Wir werden nur endliche Knoten- (und damit auch Kanten-) Mengen betrachten.
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrUnüberwachtes Lernen: Clusteranalyse und Assoziationsregeln
Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Praktikum: Data Warehousing und Data Mining Clusteranalyse Clusteranalyse Idee Bestimmung von Gruppen ähnlicher Tupel in multidimensionalen Datensätzen.
MehrZweizusammenhang und starker Zusammenhang
.. Zeizusammenhang und starker Zusammenhang Carsten Gutenger Vorlesung Algorithmen und Datenstrukturen WS /. Januar Zeizusammenhang Betrachte ein Netzerk (Graph) Z.B. Computernetzerk, Flug- oder Schienennetzerk
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen Literatur Chris Bishop: Pattern Recognition i and Machine Learning. Jiaweii Han und Micheline Kamber: Data Mining i Concepts and Techniques. Ulrike
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
Mehr\ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E.
Das Komplement Ḡ = (V, ( V ) \ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E. Ein Graph H = (V, E )
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen Lerneinheit : Kürzeste Pfade in Graphen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 016.6.01 Einleitung Diese Lerneinheit beschäftigt
Mehr2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}
1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n
MehrAlgorithmus zur topologischen Nummerierung: while V = 0 do nummeriere eine Quelle mit der nächsten Nummer streiche diese Quelle aus V od
Algorithmus zur topologischen Nummerierung: while V = 0 do nummeriere eine Quelle mit der nächsten Nummer streiche diese Quelle aus V od Diskrete Strukturen 3.7 dag 473/556 3.8 Zusammenhang Definition
MehrKonvexe Hülle im R 3 + WSPD
Übung Algorithmische Geometrie Konvexe Hülle im R 3 + WSPD LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Andreas Gemsa 12.07.2012 Ablauf Konvexe Hülle im R 3
MehrVergleich zwischen kmeans und DBScan
Vergleich zwischen kmeans und DBScan Patrick Breithaupt und Christian Kromm Vorlesung/Seminar: Information Retrieval patrick.breithaupt@stud.uni-heidelberg.de kromm@stud.uni-heidelberg.de 11. Januar 2016
MehrBerechnung minimaler Spannbäume. Beispiel
Minimale Spannbäume Definition Sei G pv, Eq ein ungerichteter Graph und sei w : E Ñ R eine Funktion, die jeder Kante ein Gewicht zuordnet. Ein Teilgraph T pv 1, E 1 q von G heißt Spannbaum von G genau
MehrClustern: Voraussetzungen
Clustering Gruppen (Cluster) ähnlicher Elemente bilden Elemente in einem Cluster sollen sich möglichst ähnlich sein, u. den Elementen in anderen Clustern möglichst unähnlich im Gegensatz zu Kategorisierung
MehrSeminar Algorithmen für planare Graphen
Seminar Algorithmen für planare Graphen Reinhard Bauer, Marcus Krug, Ignaz Rutter, Dorothea Wagner Universität Karlsruhe (TH) Institut für Theoretische Informatik Lehrstuhl Algorithmik I 24. Oktober 2008
MehrTeil 2: Graphenalgorithmen
Teil : Graphenalgorithmen Anwendungen Definitionen Datenstrukturen für Graphen Elementare Algorithmen Topologisches Sortieren Kürzeste Wege Minimal aufspannende Bäume Problemstellung Algorithmus von Prim
MehrCustomization (Zuschneiden)
Customization (Zuschneiden) Anpassen der (Graph)Datenstruktur an die Anwendung. I Ziel: schnell, kompakt. I benutze Entwurfsprinzip: make the common case fast I Listen vermeiden Mögliches Problem: Software-Engineering-Alptraum
MehrVoronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :
MehrBeschleunigung von kräftebasierten Graphzeichenalgorithmen mittels wohlseparierten Paardekompositionen
Bachelorkolloquium Beschleunigung von kräftebasierten Graphzeichenalgorithmen mittels wohlseparierten Paardekompositionen von Johannes Zink Übersicht 1. Grundlagen 1.1 Kräftebasierte Graphzeichenalgorithmen
MehrDatenstrukturen und Algorithmen. 7. Suchen in linearen Feldern
Datenstrukturen und Algorithmen 7. Suchen in linearen Feldern VO 708.031 Suchen in linearen Feldern robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische
MehrData Warehousing und Data Mining
Data Warehousing und Data Mining Clustering Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Einführung Clustergüte Ähnlichkeiten Clustermitte Hierarchisches Clustering Partitionierendes
MehrLernmodul 7 Algorithmus von Dijkstra
Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer
MehrÜbung Algorithmen und Datenstrukturen
Übung Algorithmen und Datenstrukturen Sommersemester 017 Marc Bux, Humboldt-Universität zu Berlin Agenda 1. Vorrechnen von Aufgabenblatt 1. Wohlgeformte Klammerausdrücke 3. Teile und Herrsche Agenda 1.
MehrPunktlokalisierung. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 22.05.2012 Nachtrag: Dynamische Bereichsabfragen Letzte Woche: kd-trees und Range-Trees
MehrKapitel 5: Clustering
Ludwig Maximilians Universität München Institut für Informatik Lehr- und Forschungseinheit für Datenbanksysteme Skript zur Vorlesung Knowledge Discovery in Databases im Wintersemester 2006/2007 Kapitel
Mehr5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
MehrAlgorithmen und Datenstrukturen Tutorium Übungsaufgaben
Algorithmen und Datenstrukturen Tutorium Übungsaufgaben AlgoDat - Übungsaufgaben 1 1 Landau-Notation Aufgabe Lösung 2 Rekurrenzen Aufgabe 3 Algorithmenentwurf und -analyse Aufgabe AlgoDat - Übungsaufgaben
MehrDomain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing
SE Data Cleansing Domain-independent independent Duplicate Detection Vortrag von Marko Pilop & Jens Kleine http://www.informatik.hu-berlin.de/~pilop/didd.pdf {pilop jkleine}@informatik.hu-berlin.de 1.0
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 02. Mai 2017 [Letzte Aktualisierung: 10/07/2018,
MehrVorlesung Algorithmische Geometrie Konvexe Hülle im R 3
Vorlesung Algorithmische Geometrie Konvexe Hülle im R 3 LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Andreas Gemsa 26.06.2012 Prüfung! Termine: 20. Juli 27.
MehrQuicksort ist ein Divide-and-Conquer-Verfahren.
. Quicksort Wie bei vielen anderen Sortierverfahren (Bubblesort, Mergesort, usw.) ist auch bei Quicksort die Aufgabe, die Elemente eines Array a[..n] zu sortieren. Quicksort ist ein Divide-and-Conquer-Verfahren.
Mehr6. Multivariate Verfahren Zufallszahlen
4. Zufallszahlen 6. Multivariate Verfahren Zufallszahlen - werden nach einem determinist. Algorithmus erzeugt Pseudozufallszahlen - wirken wie zufäll. Zahlen (sollen sie jedenfalls) Algorithmus: Startwert
MehrVoronoi-Diagramme INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.06.2014 1 Das Postamt-Problem b(p, q) = {x 2 R 2 : xp = xq } p q h(p, q) h(q, p) = {x
MehrDer Dreyfus-Wagner Algorithmus für das Steiner Baum Problem
Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem Andreas Moser Dietmar Ebner Christian Schauer Markus Bauer 9. Dezember 2003 1 Einführung Der in der Vorlesung gezeigte Algorithmus für das Steiner
MehrVorlesung Algorithmische Geometrie. Streckenschnitte. Martin Nöllenburg 19.04.2011
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 19.04.2011 Überlagern von Kartenebenen Beispiel: Gegeben zwei
Mehr18. Natürliche Suchbäume
Wörterbuchimplementationen 1. Natürliche Suchbäume [Ottman/Widmayer, Kap..1, Cormen et al, Kap. 12.1-12.] Hashing: Implementierung von Wörterbüchern mit erwartet sehr schnellen Zugriffszeiten. Nachteile
Mehr8 Diskrete Optimierung
8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von
MehrKapitel IV Minimale Spannbäume
Kapitel IV Minimale Spannbäume. Grundlagen Ein Graph G = (V, E) besteht aus einer Menge V von Knoten und einer Menge E von Kanten. Wir werden nur endliche Knoten- (und damit auch Kanten-) Mengen betrachten.
MehrQuadtrees und Meshing
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 19.06.2012 Motivation: Meshing von Platinenlayouts Zur Simulation der Hitzeentwicklung
Mehr8. Übung zu Algorithmen I 15. Juni 2016
8. Übung zu Algorithmen I 15. Juni 2016 Lisa Kohl Lisa.Kohl@kit.edu (mit Folien von Julian Arz, Timo Bingmann, Sebastian Schlag, Christian Staudt und Christoph Striecks) Nachtrag: Quicksort, alternative
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrDefinition Gerichteter Pfad. gerichteter Pfad, wenn. Ein gerichteter Pfad heißt einfach, falls alle u i paarweise verschieden sind.
3.5 Gerichteter Pfad Definition 291 Eine Folge (u 0, u 1,..., u n ) mit u i V für i = 0,..., n heißt gerichteter Pfad, wenn ( i {0,..., n 1} ) [ (u i, u i+1 ) A]. Ein gerichteter Pfad heißt einfach, falls
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Mehr1.1 Abstrakte Datentypen 1.2 Lineare Strukturen 1.3 Bäume 1.4 Prioritätsschlangen 1.5 Graphen
1 Datenstrukturen 1.1 Abstrakte Datentypen 1.2 Lineare Strukturen 1.3 Bäume 1.4 Prioritätsschlangen 1.5 Graphen 1 1.3 Bäume Hierarchische Datenstruktur Zusammenfassung von Gruppen (z.b. Bund / Länder /
MehrQuadtrees und Meshing
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 24.06.2014 Motivation: Meshing von Platinenlayouts Zur Simulation der Hitzeentwicklung
MehrKonvexe Hülle. Konvexe Hülle. Mathematik. Konvexe Hülle: Definition. Mathematik. Konvexe Hülle: Eigenschaften. AK der Algorithmik 5, SS 2005 Hu Bin
Konvexe Hülle Konvexe Hülle AK der Algorithmik 5, SS 2005 Hu Bin Anwendung: Computergraphik Boundary Kalkulationen Geometrische Optimierungsaufgaben Konvexe Hülle: Definition Mathematik Konvex: Linie zwischen
MehrSegmentierung. Inhalt. Segmentierung
Segmentierung Inhalt Segmentierung Definition der Segmentierung Kantenbasierte Segmentierung Regionenbasierte Segmentierung Globaler Schwellenwert (threshold) Adaptiver Schwellenwert Region Growing Segmentierung
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 018/19 1. Vorlesung Minimale Spannbäume Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Motivation ) Kantengewichte w : E R >0 ) w(e ) := e E w(e)
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
MehrQuadtrees und Meshing
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 21.06.2011 Motivation: Meshing von Platinenlayouts Zur Simulation
MehrInhalt dieses Kapitels. Ziel des Clustering, Anwendungen, Typen von Clustering-Algorithmen
2. Clustering Inhalt dieses Kapitels 3. Einleitung Ziel des Clustering, Anwendungen, Typen von Clustering-Algorithmen 3.2 Partitionierende Verfahren k-means, k-medoid, Expectation Maximization, Initialisierung
MehrSeminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
Mehr9. Übung Algorithmen I
INSTITUT FÜR THEORETISCHE INFORMATIK 1 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft Institut für Theoretische www.kit.edu Informatik Musterlösung
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 3 Programm des
Mehr3. Minimale Spannbäume. Definition 99 T heißt minimaler Spannbaum (MSB, MST) von G, falls T Spannbaum von G ist und gilt:
3. Minimale Spannbäume Sei G = (V, E) ein einfacher ungerichteter Graph, der o.b.d.a. zusammenhängend ist. Sei weiter w : E R eine Gewichtsfunktion auf den Kanten von G. Wir setzen E E: w(e ) = e E w(e),
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrEntwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion
Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 07..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrÜbersicht der Vorlesung
Übersicht der Vorlesung 1. Einführung 2. Bildverarbeitung 3. orphologische Operationen 4. Bildsegmentierung 5. erkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
Mehr...imbeispiel: Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t). liefert die Konkatenation: name int + int.
Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t)....imbeispiel: E 0 E 1 + T 1 T 0 F 2 T 1 F 2 int F 1 int name liefert die Konkatenation: name int + int. 273 Die Grammatik
Mehr5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:
MehrAlgorithmen I - Tutorium 28 Nr. 11
Algorithmen I - Tutorium 28 Nr. 11 13.07.2017: Spaß mit Schnitten, Kreisen und minimalen Spannbäumen Marc Leinweber marc.leinweber@student.kit.edu INSTITUT FÜR THEORETISCHE INFORMATIK (ITI), PROF. DR.
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrAlgorithmen und Datenstrukturen
Universität Innsbruck Institut für Informatik Zweite Prüfung 16. Oktober 2008 Algorithmen und Datenstrukturen Name: Matrikelnr: Die Prüfung besteht aus 8 Aufgaben. Die verfügbaren Punkte für jede Aufgabe
Mehr{0,1} rekursive Aufteilung des Datenraums in die Quadranten NW, NE, SW und SE feste Auflösung des Datenraums in 2 p 2 p Gitterzellen
4.4 MX-Quadtrees (I) MatriX Quadtree Verwaltung 2-dimensionaler Punkte Punkte als 1-Elemente in einer quadratischen Matrix mit Wertebereich {0,1} rekursive Aufteilung des Datenraums in die Quadranten NW,
MehrSeminar Parametrisierte Algorithmen für N P-schwere Probleme
Seminar Parametrisierte Algorithmen für N P-schwere Probleme Reinhard Bauer, Marcus Krug, Ignaz Rutter Institut für Theoretische Informatik 24. April 2009 1/ 22 Klassische Komplexitätstheorie P vs. N P-schwer
Mehr5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrLiteratur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)
Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,
Mehr9 Minimum Spanning Trees
Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne
MehrInformatik II, SS 2018
Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 15b (13.06.2018) Graphenalgorithmen IV Algorithmen und Komplexität Prims MST-Algorithmus A = while A ist kein Spannbaum do e = u, v ist
Mehr