Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
|
|
- Paulina Goldschmidt
- vor 7 Jahren
- Abrufe
Transkript
1 Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1
2 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte in unterschiedlichen Gruppen sich unterscheiden Anwendungen: Vereinfachung von Daten und verlustbehaftete Datenkompression Erkennung von Mustern Anwendungsgebiete: Maschinelles Lernen, Bioinformatik, Statistik, Datenkompression, Bilderkennung, Spracherkennung, etc. 2
3 Modellierung algorithmischer Probleme: Was sind Objekte? Wann sind sich Objekte ähnlich? Was ist das Ziel des Clustering? Geeignete Problemformulierung? Oft nicht eindeutig möglich Exakte Formulierung meist nicht effizient lösbar Trade-off: Einfachheit gegen Realismus 3
4 Beispiel 1: Problem: mehrdeutige Begriffe bei Websuche Beispiele: Jaguar, Armstrong Mögliche Abhilfe: - Clustering von Webseiten - Falls es zu einem Anfragebegriff mehrere Cluster gibt, dann stellt Suchmaschine Rückfragen Für Rückfragen wäre ein Repräsentant jedes Clusters hilfreich Wann sind Webseiten ähnlich? 4
5 Beispiel 1 (Problemformulierung): Idee: Ähnlichkeit über Statistik der auftauchenden Wörter Wichtig sind Wörter, die normalerweise selten auftreten, in der betrachteten Seite aber häufig sind Definition (TFIDF): Sei eine Menge von n Textdokumenten gegeben. Es sei tf(d,t) die Häufigkeit von Wort t in Dokument d und sei df(t) die Anzahl Dokument, die Wort t enthalten. Dann ist die TFIDF (term frequency inverse document frequency) von t in d definiert als tfidf(d,t) = tf(d,t) log(n/df(t)). 5
6 Beispiel 1 (Problemformulierung): Jedes Dokument d wird durch TFIDF Vektor repräsentiert, der für jedes t den Wert tfdidf(d,t) enthält Damit ist jedes Dokument ein Punkt in einem hochdimensionalen Raum Wann sind TFIDF Vektoren ähnlich? Sind alle Einträge eines Vektors genau doppelt so groß wie die eines anderen, so sind sie sich ähnlich (die eine Seite enthält nur mehr Text) Betrachte daher Winkel zwischen den TFIDF-Vektoren Ähnlichkeit zweier Webseiten x,y wird durch Cosinus der TFIDF Vektoren gemessen 6
7 Beispiel 1 (Problemformulierung): Finde k Gruppen mit zugehörigen Repräsentanten, so dass die Summe des Cosinus der Winkel der TFIDF- Vektoren zu dem Vektor ihres Repräsentanten maximiert wird α 7
8 Beispiel 1 (Problemformulierung): Finde k Gruppen mit zugehörigen Repräsentanten, so dass die Summe des Cosinus der Winkel der TFIDF- Vektoren zu dem Vektor ihres Repräsentanten maximiert wird 8
9 Beispiel 1 (Problemformulierung 2): Idee: Verweist eine Seite auf zwei andere Seiten, so sind haben diese Seiten ähnlichen Inhalt B A C 9
10 Beispiel 1 (Problemformulierung 2): Idee: Verweist eine Seite auf zwei andere Seiten, so sind haben diese Seiten ähnlichen Inhalt B A C Seite B und C sind ähnlich, weil auf sie von A aus verwiesen wird (Die Seiten werden von A zitiert) 10
11 Definition (Co-Citation Graph): Sei G=(V,E) ein gerichteter Graph. Der ungerichtete (gewichtete) Co-Citation Graph H=(V,F) von G hat eine Kante zwischen zwei Knoten u, w, g.d.w. es einen Knoten v V gibt mit (v,u) E und (v,w) E. Das Gewicht einer Kante (u,w) im Co-Citation Graph ist die Anzahl der Knoten v V mit (v,u) E und (v,w) E
12 Beispiel 1 (Problemformulierung 2): Finde k Gruppen, so dass das durchschnittliche Intracluster Kantengewicht des Co-Citation Graph maximiert wird
13 Beispiel 1 (Problemformulierung 2): Finde k Gruppen, so dass das durchschnittliche Intracluster Kantengewicht des Co-Citation Graph maximiert wird Es gibt 6 mögliche Intra-Cluster Kanten mit Gesamtgewicht 8: Qualität des Clusterings ist also 4/
14 Beispiel 1 (Problemformulierung 2): Finde k Gruppen, so dass das durchschnittliche Intracluster Kantengewicht des Co-Citation Graph maximiert wird Es gibt 4 mögliche Intra-Cluster Kanten mit Gesamtgewicht 4: Qualität des Clusterings ist also
15 Diskussion: Zwei völlig verschiedene Modellierungen desselben Problems Welche ist besser? Verschiedene Aspekte: Welche Formulierung liefert bessere Ergebnisse Experimente machen Welche Formulierung kann man effizient lösen? Keine eindeutige Antwort möglich! 15
16 Beispiel 2: Verlustbehaftete Datenkompression von Bildern Ansatz: Reduktion der Farbtiefe Bitmap: 8 Bits für jeden der 3 RGB Werte (Farbtiefe 24 Bits) Reduktion auf wenige Farben Ansatz: Clustering des Farbraums eines Bildes, d.h. der Menge der RGB-Vektoren Eingabe ist also Punktmenge im 3D 16
17 Beispiel 2 (Problemformulierung): Benötigen k Repräsentanten Repräsentanten nicht notwendigerweise Teil der Eingabe (wir dürfen neue Farben wählen Repräsentant sollte der Durchschnitt aller Punkte ein Wir minimieren folgende Zielfunktion: Finde k Zentren (Repräsentanten) und k Cluster C 1,,C k, so dass minimiert wird. k Σ Σ (d(p,c ))² i=1 p C i i 17
18 Beobachtung: Sei P eine Punktmenge und seien Zentren c,, c 1 k gegeben. Dann erhält man ein für diese Punktmenge optimales Clustering, indem man jeden Punkt dem nächstgelegenen Zentrum zuordnet. 18
19 Beobachtung: Sei P eine Punktmenge und seien Zentren c,, c 1 k gegeben. Dann erhält man ein für diese Punktmenge optimales Clustering, indem man jeden Punkt dem nächstgelegenen Zentrum zuordnet. 19
20 Definition: Sei P eine Menge von n Punkten im R. Dann heißt der Punkte µ(p) = Σ p /n Schwerpunkt von P. p P (Dabei werden die Punkte als Vektoren aufgefasst.) d 20
21 Lemma: Sei P eine Menge von n Punkten im R. Dann wird die Funktion f(x) = Σ (d(p,x))² minimiert durch µ(p). p P d 21
22 Wir wissen: Bei vorgegebenen Zentren wird die bestmögliche Lösung durch Zuweisung der Punkte zum nächstgelegenen Zentrum erzielt Bei vorgegebenen Clustern wird die beste Lösung erzielt, indem man als Zentrum jedes Clusters den Schwerpunkt des Clusters wählt 22
23 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 23
24 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 24
25 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 25
26 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 26
27 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 27
28 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 28
29 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 29
30 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 30
31 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 31
32 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 32
33 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 33
34 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 34
35 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 35
36 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 36
37 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k 37
38 Lloyds Algorithmus(P,k) 1. Wähle k unterschiedliche Zentren c,,c beliebig 2. Solange sich die Zielfunktion verbessert 3. Partitioniere P so in Cluster C,, C, dass C die 1 k i Punkte aus P enthält, deren nächstgelegenes Zentrum c ist i 4. Für jedes 1 i k sei c µ(c ) i i 1 k Laufzeit: O(nkd) pro Iteration des Algorithmus 38
39 Lemma: Lloyds Algorithmus konvergiert nach O(2 ) Iterationen. Lemma: Die von Lloyds Algorithmus berechnete Lösung ist nicht notwendigerweise eine optimale Lösung (die berechnete Lösung ist ein lokales aber kein globales Minimum). nk 39
40 Lemma: Lloyds Algorithmus konvergiert nach O(k ) Iterationen. Lemma: Die von Lloyds Algorithmus berechnete Lösung ist nicht notwendigerweise eine optimale Lösung (die berechnete Lösung ist ein lokales aber kein globales Minimum). n Qualität der berechneten Lösung hängt stark von Startlösung ab! 40
41 Können wir andere Aussagen machen? Z.B.: die Kosten (gemäß Zielfunktion) für die berechnete Lösung sind höchstens doppelt so groß wie die einer optimalen Lösung (Einen solchen Algorithmus würde man Approximationsalgorithmus nennen) Nein, solche Aussagen kann man nicht machen! 41
42 Neues algorithmisches Verfahren (lokale Suche): Berechnet Lösung durch lokale Verbesserung Algorithmus konvergiert nach endlich vielen Schritten Berechnete Lösung ist lokales Minimum aber nicht immer auch ein globales Häufig relativ einfach zu implementieren und in der Praxis effizient 42
43 Offene Probleme Genauere Analyse von Lloyds Algorithmus bzw. Varianten, die immer eine gute Approximation der optimalen Lösung garantieren Clustering Verfahren für sich bewegende Objekte (Sensornetzwerke, Mobilfunk, etc.) Viele neue Anwendungsmöglichkeiten (z.b. Web Spam Detection) 43
44 Zusammenfassung: Viele unterschiedliche Clustering Probleme Lloyds Algorithmus O(nkd) pro Iteration Konvergiert Keine Garantie für Lösungsqualität Lokales Suchverfahren 44
Informatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, 25.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung
MehrApproximationsalgorithmen
Effiziente Algorithmen Lösen NP-vollständiger Probleme 320 Approximationsalgorithmen In polynomieller Zeit lässen sich nicht exakte Lösungen von NP-harten Problemen berechnen. Approximationsalgorithmen
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrInformatik II, SS 2018
Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei
MehrVorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG
Vorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG 195 Bildsegmentierung! Aufgabe: Bestimme inhaltlich zusammenhängende, homogene Bereiche eines Bildes! Weit verbreitetes Problem in der Bildverarbeitung! Viele
Mehr11. GRAPHEN 3 FLÜSSE UND SPANNBÄUME
Algorithmen und Datenstrukturen 11. GRAPHEN 3 FLÜSSE UND SPANNBÄUME Algorithmen und Datenstrukturen - Ma5hias Thimm (thimm@uni-koblenz.de) 1 Algorithmen und Datenstrukturen 11.1. BERECHNUNG MAXIMALER FLÜSSE
MehrProjektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten
Projektgruppe Jennifer Post Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten 2. Juni 2010 Motivation Immer mehr Internet-Seiten Immer mehr digitale Texte Viele Inhalte ähnlich oder gleich
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische
MehrAlgorithmische Geometrie: Delaunay Triangulierung (Teil 1)
Algorithmische Geometrie: Delaunay Triangulierung (Teil 1) Nico Düvelmeyer WS 2009/2010, 26.1.2010 Überblick 1 Motivation Interpolation von Höhendaten 2 Triangulierungen von ebenen Punktmengen 3 Delaunay
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
MehrDas Rucksackproblem: schwache NP-Härte und Approximation
Das Rucksackproblem: schwache NP-Härte und Approximation Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1. Februar 2010 Berthold Vöcking, Informatik 1 () Vorlesung
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrSCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)
Vorlesung 12 AUSDÜNNUNG VON GRAPHEN SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) 387 Wiederholung: Approximative Schnitterhaltung Ziel: Approximationsalgorithmus: A(S(G)) Ziele bei Eingabe eines dichten
MehrNetzwerkverbindungsspiele
Netzwerkverbindungsspiele Algorithmische Spieltheorie Sommer 2017 Annamaria Kovacs Netzwerkverbindungsspiele 1 / 12 Local Connection Spiel Computer (oder autonome Systeme) sind die Spieler (Knoten). Sie
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe 3. Elementare Graphalgorithmen und Anwendungen 4. Minimal spannende Bäume 5. Kürzeste Pfade 6. Traveling Salesman Problem 7. Flüsse
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrBeispiel Gröbnerbasen-Berechnung
Beispiel Gröbnerbasen-Berechnung Bsp: Seien f 1 = x 2 y + xy, f 2 = xy 2 + 1 R[x, y] in grlex-ordnung. S(f 1, f 2 ) = yf 1 xf 2 = xy 2 x. Division liefert S(f 1, f 2 ) = 1 f 2 x 1. Wir fügen f 3 = x 1
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
MehrGierige Algorithmen Interval Scheduling
Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
Mehr10 Kürzeste Pfade SSSP-Problem
In diesem Kapitel setzen wir uns mit der Berechnung von kürzesten Pfaden in einem Graphen auseinander. Definition 10.1 (Pfadgewichte). i) Das Gewicht eines Pfades p = (v 0, v 1,..., v k ) ist die Summe
MehrGrundlagen: Algorithmen und Datenstrukturen
Grundlagen: Algorithmen und Datenstrukturen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 00
MehrDie Klasse NP und die polynomielle Reduktion. Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 26 Optimierungsprobleme und ihre Entscheidungsvariante Beim Rucksackproblem
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Vorlesung 7 und 8: Euler- und Hamilton-Graphen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 17. April 2018 1/96 WIEDERHOLUNG Eulersche
Mehr4.2 Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition 4.2.1
Allgemeines. Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition.. (a) Ein Graph G =(V, E) heißt kreisfrei, wenn er keinen Kreis besitzt. Beispiel: Ein kreisfreier Graph: FG KTuEA, TU Ilmenau
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrAlgorithmen & Komplexität
Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg
MehrSatz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...
Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Geometrisches Problem: Problem: Nächstes Paar Eingabe: n Punkte in der Ebene Ausgabe: Das Paar q,r mit geringstem Abstand
Mehr9 Minimum Spanning Trees
Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme
10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e
Mehr16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87
16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor
Mehr5. Bäume und Minimalgerüste
5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrEindeutigkeit reduzierter Gröbnerbasen
Eindeutigkeit reduzierter Gröbnerbasen Satz Existenz und Eindeutigkeit reduzierter Gröbnerbasen Jedes Ideal I F[x 1,..., x n ] besitzt eine eindeutige reduzierte Gröbnerbasis. Beweis: Existenz: Hilbert
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
MehrBerechnung minimaler Spannbäume. Beispiel
Minimale Spannbäume Definition Sei G pv, Eq ein ungerichteter Graph und sei w : E Ñ R eine Funktion, die jeder Kante ein Gewicht zuordnet. Ein Teilgraph T pv 1, E 1 q von G heißt Spannbaum von G genau
Mehr2. November Gradfolgen Zusammenhang Kürzeste Wege. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37
2. November 2011 Gradfolgen Zusammenhang Kürzeste Wege H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37 Satz von Erdős und Gallai Eine Partition einer natürlichen Zahl ist genau dann die Gradfolge
MehrEffiziente Algorithmen (SS2015)
Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation
MehrTeil III. Komplexitätstheorie
Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein
MehrDie Klasse NP und die polynomielle Reduktion
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,
MehrEinführung in Berechenbarkeit, Komplexität und Formale Sprachen
Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:
MehrDas Problem des minimalen Steiner-Baumes
Das Problem des minimalen Steiner-Baumes Ein polynomieller Approximationsalgorithmus Benedikt Wagner 4.05.208 INSTITUT FU R THEORETISCHE INFORMATIK, LEHRSTUHL ALGORITHMIK KIT Die Forschungsuniversita t
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 9 Programm: Übungsblatt
Mehr15. Elementare Graphalgorithmen
Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
MehrP, NP und NP -Vollständigkeit
P, NP und NP -Vollständigkeit Mit der Turing-Maschine haben wir einen Formalismus kennengelernt, um über das Berechenbare nachdenken und argumentieren zu können. Wie unsere bisherigen Automatenmodelle
MehrKomplexitätstheorie WiSe 2008/09 in Trier. Henning Fernau Universität Trier
Komplexitätstheorie WiSe 2008/09 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Komplexitätstheorie Gesamtübersicht Organisatorisches / Einführung Motivation / Erinnerung / Fragestellungen
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrEffiziente Algorithmen I 11. Übungsblatt, Wintersemester 2015/16 Abgabetermin:
11 11. Übungsblatt, Wintersemester 2015/16 Abgabetermin: 19.01.2016 Aufgabe 29 Bestimmen Sie mit der Stepping-Stone-ethode einen Transportplan mit minimalen Kosten für das klassische Transportproblem mit
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Vorlesung 4: Suchstrategien Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 14. April 2017 HALBORDNUNG TOPOLOGISCHE ORDNUNG TOPOLOGISCHES
MehrInformatik III - WS07/08
Informatik III - WS07/08 Kapitel 4 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 4 : Komplexitätsklassen Informatik III - WS07/08 Kapitel 4 2 Sprachen, Probleme, Zeitkomplexität
MehrVorlesung 3 MINIMALE SPANNBÄUME
Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,
MehrAlgorithmen und Datenstrukturen 1 VL Übungstest SS Juni 2009
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 2. Übungstest SS 2009 09. Juni
MehrKlausur Algorithmen und Datenstrukturen II 29. Juli 2013
Technische Universität Braunschweig Sommersemester 2013 Institut für Betriebssysteme und Rechnerverbund Abteilung Algorithmik Prof. Dr. Sándor P. Fekete Stephan Friedrichs Klausur Algorithmen und Datenstrukturen
MehrZiel: Zeichnung gibt gute visuelle Repräsentation der Konnektivität zwischen den Knoten
Szenario Zeichnen großer ungerichteter Graphen Eingabe: G = (V, E) Ausgabe: 2D- oder 3D- Koordinaten x i für jeden Knoten i 2 V Ziel: Zeichnung gibt gute visuelle Repräsentation der Konnektivität zwischen
MehrKlausur SoSe Juli 2013
Universität Osnabrück / FB6 / Theoretische Informatik Prof. Dr. M. Chimani Informatik D: Einführung in die Theoretische Informatik Klausur SoSe 2013 11. Juli 2013 (Prüfungsnr. 1007049) Gruppe: Batman,
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
MehrGraphdurchmusterung, Breiten- und Tiefensuche
Prof. Thomas Richter 18. Mai 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 18.05.2017 Graphdurchmusterung,
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Geometrie, SoSe 2005 Skriptmitschrift vom 29. April 2005
Algorithmische Geometrie, SoSe 2005 Skriptmitschrift vom 29. April 2005 Antonia Wittmers Igor Savchenko Konvexe Hüllen Inkrementeller Algorithmus für die konvexe Hülle Dabei heißt inkrementeller Algorithmus,
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrFORMALE SYSTEME. 8. Vorlesung: Minimale Automaten. TU Dresden, 6. November Markus Krötzsch Lehrstuhl Wissensbasierte Systeme
FORMALE SYSTEME 8. Vorlesung: Minimale Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 6. November 2017 Rückblick Markus Krötzsch, 6. November 2017 Formale Systeme Folie 2 von 26
MehrAlgorithmen und Datenstrukturen Übung #4 BFS/DFS, Wachstum von Funktionen
Platzhalter für Bild, Bild auf Titelfolie hinter das Logo einsetzen Algorithmen und Datenstrukturen Übung #4 BFS/DFS, Wachstum von Funktionen Christian Rieck, Arne Schmidt 22.11.2018 Heute 12 Breiten-
MehrProgrammierkurs Python II
Programmierkurs Python II Stefan Thater & Michaela Regneri Universität des Saarlandes FR 4.7 Allgemeine Linguistik (Computerlinguistik) Übersicht Topologische Sortierung (einfach) Kürzeste Wege finden
MehrAlgorithmische Geometrie: Delaunay Triangulierung (Teil 2)
Algorithmische Geometrie: Delaunay Triangulierung (Teil 2) Nico Düvelmeyer WS 2009/2010, 2.2.2010 Überblick 1 Delaunay Triangulierungen 2 Berechnung der Delaunay Triangulierung Randomisiert inkrementeller
MehrAlgorithmische Mathematik I
Algorithmische Mathematik I Wintersemester 2011 / 2012 Prof. Dr. Sven Beuchler Peter Zaspel Übungsblatt zur Wiederholung Teil 1. Abgabe am -. Aufgabe 1. a) Was ist eine B-adische Darstellung mit fixer
MehrDatenstrukturen und Algorithmen (SS 2013)
Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes
MehrApproximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrKomplexitätstheorie WiSe 2009/10 in Trier. Henning Fernau Universität Trier
Komplexitätstheorie WiSe 2009/10 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Komplexitätstheorie Gesamtübersicht Organisatorisches / Einführung Motivation / Erinnerung / Fragestellungen
MehrDatenstrukturen und Algorithmen
Prof. Dr. Erika Ábrahám Datenstrukturen und Algorithmen 1/1 Datenstrukturen und Algorithmen Vorlesung 14: Prof. Dr. Erika Ábrahám Theorie Hybrider Systeme Informatik 2 http://ths.rwth-aachen.de/teaching/ss-14/
Mehrp = (v 0, v 1,..., v k )
1 Routenlaner Hamburg 300 km 200 km Berlin 450 km Köln 200 km 400 km Frankfurt 50 km 200 km 150 km Mannheim Saarbrücken 100 km 250 km Stuttgart 200 km Dresden 300 km Nürnberg 200 km München Berechne den
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Mehr5 Suchmaschinen Page Rank. Page Rank. Information Retrieval und Text Mining FH Bonn-Rhein-Sieg, SS Suchmaschinen Page Rank
Page Rank Google versucht die Bedeutung von Seiten durch den sogenannten Page Rank zu ermitteln. A C Page Rank basiert auf der Verweisstruktur des Webs. Das Web wird als großer gerichteter Graph betrachtet.
MehrQuantenalgorithmus für die Faktorisierung ganzer Zahlen
Quantenalgorithmus für die Faktorisierung ganzer Zahlen Ausgehend von dem allgemeinen Algorithmus für das Hidden Subgroup Problem behandlen wir in diesem Abschnitt den Quantenalgorithmus für die Faktorisierung
MehrTeil 2: Graphenalgorithmen
Teil : Graphenalgorithmen Anwendungen Definitionen Datenstrukturen für Graphen Elementare Algorithmen Topologisches Sortieren Kürzeste Wege Minimal aufspannende Bäume Problemstellung Algorithmus von Prim
MehrAlgorithmen und Datenstrukturen Tafelübung 14. Jens Wetzl 8. Februar 2012
Algorithmen und Datenstrukturen Tafelübung 14 Jens Wetzl 8. Februar 2012 Folien Keine Garantie für Vollständigkeit und/oder Richtigkeit Keine offizielle Informationsquelle LS2-Webseite Abrufbar unter:
MehrAm Dienstag, den 16. Dezember, ist Eulenfest. 1/45
Am Dienstag, den 16. Dezember, ist Eulenfest. 1/45 Grundbegriffe der Informatik Einheit 12: Erste Algorithmen in Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009
MehrOperations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08
MehrBerechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen
Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit
MehrMinimal spannende Bäume
http://www.uni-magdeburg.de/harbich/ Minimal spannende Fakultät für Informatik Otto-von-Guericke-Universität 2 Inhalt Definition Wege Untergraphen Kantengewichtete Graphen Minimal spannende Algorithmen
MehrAlgorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016
Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie
MehrVoronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :
MehrWintersemester 2004/ Februar 2005
Lehrstuhl für Praktische Informatik III Norman May B6, 29, Raum C0.05 68131 Mannheim Telefon: (0621) 181 2517 Email: norman@pi3.informatik.uni-mannheim.de Matthias Brantner B6, 29, Raum C0.05 68131 Mannheim
MehrBeweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)
Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert
Mehrx x y x y Informatik II Schaltkreise Schaltkreise Schaltkreise Rainer Schrader 3. November 2008
Informatik II Rainer Schrader Zentrum für Angewandte Informatik Köln 3. November 008 1 / 47 / 47 jede Boolesche Funktion lässt mit,, realisieren wir wollen wir uns jetzt in Richtung Elektrotechnik und
MehrAlgorithmen und Datenstrukturen 1 VU 6.0 Nachtragstest SS Oktober 2014
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.813 Algorithmen und Datenstrukturen 1 VU 6.0 Nachtragstest SS 2014 22. Oktober
MehrDer Alpha-Beta-Algorithmus
Der Alpha-Beta-Algorithmus Maria Hartmann 19. Mai 2017 1 Einführung Wir wollen für bestimmte Spiele algorithmisch die optimale Spielstrategie finden, also die Strategie, die für den betrachteten Spieler
Mehr