Einführung in das Seminar Algorithmentechnik
|
|
- Edmund Meyer
- vor 6 Jahren
- Abrufe
Transkript
1 Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum in dasinseminar der Helmholtz-Gemeinschaft Algorithmentechnik
2 Inhalt Optimierung Typen von Optimierungsproblemen Repräsentation zulässiger Lösungen Entwurf von Zielfunktionen Approximationsalgorithmen Kombinatorische Optimierung Approximationsalgorithmus: eine Definition Schlechte Approximierbarkeit Metaheuristiken Kriterien für Anwendung von Metaheuristiken Design von Metaheuristiken Qualitätskontrolle Zusammenfassung 2 Henning Meyerhenke, Roland Glantz:
3 Suchraum und Zielfunktion f( s *) f : S R s* Globales Maximum von f ( ) bei s S S 3 Henning Meyerhenke, Roland Glantz:
4 Konvexer Suchraum und lineare Zielfunktion Maximiere c T x unter den Nebenbedingungen A(x) b und x 0 x 2 A (x) = b 1 1 < A (x) = b 2 A (x) = b Globales Maximum liegt in einer Ecke des Suchraums 2 3 x Henning Meyerhenke, Roland Glantz:
5 Diskreter Suchraum und lineare Zielfunktion Rucksackproblem: W = {1,..., n} vol : W IN p : W IN B IN Maximiere p(w W ) unter der Nebenbedingung vol(w ) B p W = { 1, 2, 3, 4 } vol W = { 3, 4 } max B Henning Meyerhenke, Roland Glantz:
6 Repräsentationen: ein Beispiel Traveling Salesperson Problem: G = (V, E) vollständiger Graph, V = {v 1,..., v n }, E = {e 1,..., e n(n 1)/2 }, Kosten c : E IR +. Minimiere Gesamtkosten c(e ), wobei E E Hamiltonkreis auf G v 8 v 1 v 4 v 6 v 9 v 3 v 0 v 7 v 5 v 2 (0, 2, 5, 7, 3, 4, 8, 1, 9, 6) 6 Henning Meyerhenke, Roland Glantz:
7 Bedingungen an Repräsentationen Vollständigkeit: alle zulässigen Lösungen müssen repräsentiert sein. Zusammenhang: alle Repräsentationen müssen miteinander verbunden sein. (0, 2, 5, 7, 3, 4, 8, 1, 9, 6) (0, 2, 7, 5, 3, 4, 8, 1, 9, 6) (0, 2, 7, 5, 3, 4, 8, 1, 6, 9) (0, 9, 7, 5, 3, 4, 8, 1, 6, 2) Effizienz: Nachbar-Repräsentationen müssen schnell erzeugt werden können. 7 Henning Meyerhenke, Roland Glantz:
8 Reduktion einer Repräsentation Von 2 (n2) Repräsentationen auf n! Repräsentationen 8 Henning Meyerhenke, Roland Glantz:
9 Lenkende Zielfunktionen: von SAT zu MAX-SAT Ist eine Boolesche Funktion, z. Bsp. b(a, B, C) = ( A B C) (A B C) (A B C) (1) erfüllbar? (ja, nein). f (A, B, C) := { 1 b(a, B, C) = true 0 b(a, B, C) = false (2) 9 Henning Meyerhenke, Roland Glantz:
10 Lenkende Zielfunktionen: von SAT zu MAX-SAT Ist eine Boolesche Funktion, z. Bsp. b(a, B, C) = ( A B C) (A B C) (A B C) (1) erfüllbar? (ja, nein). f (A, B, C) := { 1 b(a, B, C) = true 0 b(a, B, C) = false (2) Besser: Wie gut erfüllen A, B und C die Funktion b? Dazu KNF b(a, B, C) = (A B C) ( A B C) ( A B C) (3) und f (A, B, C) := Anzahl erfüllter Klauseln in KNF (4) 9 Henning Meyerhenke, Roland Glantz:
11 Zielfunktionen mit Dekodierung Steinerbaumproblem: G = (V, E) einfacher Graph, V = V T V N, Kantengewichte w : E IN Finde E E mit minimalem w(e ) das Knoten in V T verbindet. B A C Suche Brückenknoten und rechne Minimum Weight Spanning Tree aus 10 Henning Meyerhenke, Roland Glantz:
12 Zusammenfassung Optimierung Zwei ähnlich aussehende Optimierungsprobleme können sich sehr in ihrer Komplexität unterscheiden. Repräsentationen von (zulässigen) Lösungen müssen vollständig und zusammenhängend sein. Außerdem müssen Nachbar-Repräsentationen schnell erzeugt werden können. Oft kann eine Zielfunktionen lenkender gemacht werden. Manchmal lohnt es sich eine Zielfunktion zu kodieren und sie am Ende zu dekodieren. 11 Henning Meyerhenke, Roland Glantz:
13 Inhalt Optimierung Typen von Optimierungsproblemen Repräsentation zulässiger Lösungen Entwurf von Zielfunktionen Approximationsalgorithmen Kombinatorische Optimierung Approximationsalgorithmus: eine Definition Schlechte Approximierbarkeit Metaheuristiken Kriterien für Anwendung von Metaheuristiken Design von Metaheuristiken Qualitätskontrolle Zusammenfassung 12 Henning Meyerhenke, Roland Glantz:
14 Kombinatorische Optimierung, die zweite Zu einem kombinatorischen Optimierungsproblem Π gehört eine Menge D von Instanzen (Eingaben), eine Menge S(I) zulässiger Lösungen für jede Instanz I D, Zielfunktion f : S(I) IN, und ziel {min, max}. 13 Henning Meyerhenke, Roland Glantz:
15 Kombinatorische Optimierung, die zweite Zu einem kombinatorischen Optimierungsproblem Π gehört eine Menge D von Instanzen (Eingaben), eine Menge S(I) zulässiger Lösungen für jede Instanz I D, Zielfunktion f : S(I) IN, und ziel {min, max}. Gesucht ist zu I D eine zulässige Lösung σ opt S(I) so dass f (σ opt ) = ziel{f (σ) σ S(I)}. (5) 13 Henning Meyerhenke, Roland Glantz:
16 Beispiel Rucksackproblem D = { W, vol( ), p( ), B }, wobei W = {1,... n}, p : W IN, vol : W IN, und B IN so dass Vol(w) B für alle w W (jeder Gegenstand passt einzeln in den Rucksack) S( W, p, vol, B ) = {W W w W vol(w ) B}, f (W ) = w W p(w ), und ziel = max. 14 Henning Meyerhenke, Roland Glantz:
17 Beispiel Rucksackproblem D = { W, vol( ), p( ), B }, wobei W = {1,... n}, p : W IN, vol : W IN, und B IN so dass Vol(w) B für alle w W (jeder Gegenstand passt einzeln in den Rucksack) S( W, p, vol, B ) = {W W w W vol(w ) B}, f (W ) = w W p(w ), und ziel = max. Gesucht ist zu I D eine zulässige Lösung σ opt S(I) so dass f (σ opt ) = ziel{f (σ) σ S(I)}. (6) 14 Henning Meyerhenke, Roland Glantz:
18 Approximationsalgorithmus Definition: Sei Π ein kombinatorisches Optimierungsproblem. Ein t(n) Zeit Approximationsalgorithmus A berechnet zur Eingabe I D in Zeit t( I ) eine Ausgabe σi A S(I) Wir schreiben A(I) = f (σ A I ). 15 Henning Meyerhenke, Roland Glantz:
19 Approximationsalgorithmus Definition: Sei Π ein kombinatorisches Optimierungsproblem. Ein t(n) Zeit Approximationsalgorithmus A berechnet zur Eingabe I D in Zeit t( I ) eine Ausgabe σi A S(I) Wir schreiben A(I) = f (σ A I ). Bemerkungen: Approximation taucht nur im Namen auf: approximiert wird aber (noch) gar nicht. In A(I) steckt aber schon die Zielfunktion. Zeit t = t( I ) hängt von der Eingabelänge ab: Hohe p(w) können beim Rucksackproblem problematisch sein. 15 Henning Meyerhenke, Roland Glantz:
20 Gap Amplification am Rucksackproblem p W = { 1, 2, 3, 4 } vol p W = { 1, 2, 3, 4 } vol 16 Henning Meyerhenke, Roland Glantz:
21 Problem mit Rucksackproblem Unter der Annahme P = NP gibt es keine Konstante k IN und keinen polynomiellen Approximationsalgorithmus A so dass A(I) OPT (I) k für alle I. 17 Henning Meyerhenke, Roland Glantz:
22 Problem mit Rucksackproblem Unter der Annahme P = NP gibt es keine Konstante k IN und keinen polynomiellen Approximationsalgorithmus A so dass A(I) OPT (I) k für alle I. Beweis durch Widerspruch: Nehme an dass obige Gleichung doch erfüllt ist. Wähle I = (W, vol, p, B) beliebig. Definiere I = (W, vol, p, B ) durch W := W, vol := vol, B := B, und p (w) := (k + 1)p(w) für alle w W. Zeige dass A sogar eine exakte Lösung für I, und somit für I findet. 17 Henning Meyerhenke, Roland Glantz:
23 Zusammenfassung Approximationsalgorithmen Gap Amplification ist ein wichtiges Verfahren um Grenzen der Approximierbarkeit nachzuweisen. Kein polynomieller Approximationsalgorithmus für das Rucksackproblem kommt absolut an das Optimum heran (es sei denn P = NP). 18 Henning Meyerhenke, Roland Glantz:
24 Inhalt Optimierung Typen von Optimierungsproblemen Repräsentation zulässiger Lösungen Entwurf von Zielfunktionen Approximationsalgorithmen Kombinatorische Optimierung Approximationsalgorithmus: eine Definition Schlechte Approximierbarkeit Metaheuristiken Kriterien für Anwendung von Metaheuristiken Design von Metaheuristiken Qualitätskontrolle Zusammenfassung 19 Henning Meyerhenke, Roland Glantz:
25 Wann zu Metaheuristiken greifen? Wenn keine exakten Algorithmen / Approximationsalgorithmen mit akzeptabler Laufzeit zur Verfügung stehen. Wenn suboptimale Lösungen akzeptabel sind. Wenn wenig Zeit (Geld) für die Softwareentwicklung vorhanden ist. Bei komplizierter Zielfunktion, z. Bsp. wenn die Zielfunktion eine Simulation beinhaltet. Eher bei großen Instanzen. Eher bei NP-schweren Problemen. 20 Henning Meyerhenke, Roland Glantz:
26 Mit und ohne Gedächtnis Vorteile von Gedächtnis sind dass Zyklen im Suchraum vermieden werden können, und dass die Suche nach Lösungen besser intensiviert und diversifiziert werden kann Henning Meyerhenke, Roland Glantz:
27 Einzellösung oder populationsbasiert Vorteile populationsbasierter Metaheuristiken sind bessere und effiziente Diversifizierung, mehr Möglichkeiten zur Intensivierung, sowie oft effiziente Parallelisierung möglich Henning Meyerhenke, Roland Glantz:
28 Iterativ oder greedy (0, 1, 0, 0, 1, 0, 1, 1, 1, 1) (0, 1, 0, 0, 1, 0, 1, 1, 1, 0) (1, 1, 0, 0, 1, 0, 1, 1, 1, 0) (1, 1, 0, 0, 0, 0, 1, 1, 1, 0) (1, 1, 0, 0, 0, 0, 1, 0, 1, 0) (1, 1, 0, 0, 1, 0, 1, 0, 1, 0) (0, 0, 0, 0, 0, 0, 0, 0, 0, 0) (1, 0, 0, 0, 0, 0, 0, 0, 0, 0) (1, 1, 0, 0, 0, 0, 0, 0, 0, 0) (1, 1, 0, 0, 1, 0, 0, 0, 0, 0) (1, 1, 0, 0, 1, 0, 1, 0, 0, 0) (1, 1, 0, 0, 1, 0, 1, 0, 1, 0) Korrekturen möglich. Laufzeiten können hoch sein. Korrekturen nicht möglich. Meist schneller. 23 Henning Meyerhenke, Roland Glantz:
29 Zusammenfassung Metaheuristiken Metaheuristiken liefern oft Lösungen hoher Güte, auch für NP-schwere Probleme, sind auf breiter Front einsetzbar, garantieren keine absolute oder relative Güte, verbringen oft viel Zeit mit wiederholter Berechnung der Zielfunktion, sollten nur eingesetzt weden wenn keine exakten Algorithmen / Approximationsalgorithmen mit akzeptabler Laufzeit existieren. 24 Henning Meyerhenke, Roland Glantz:
30 Inhalt Optimierung Typen von Optimierungsproblemen Repräsentation zulässiger Lösungen Entwurf von Zielfunktionen Approximationsalgorithmen Kombinatorische Optimierung Approximationsalgorithmus: eine Definition Schlechte Approximierbarkeit Metaheuristiken Kriterien für Anwendung von Metaheuristiken Design von Metaheuristiken Qualitätskontrolle Zusammenfassung 25 Henning Meyerhenke, Roland Glantz:
31 Zusammenfassung Tradeoffs zwischen exakten Algorithmen (ExA), Approximationsalgorithmen (AA), problemspezifischen Heuristiken (ph), und Metaheuristiken (MH). An der Tafel. 26 Henning Meyerhenke, Roland Glantz:
Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrOptimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis
Optimierungsprobleme Instanz eines Optimierungsproblems zulässiger Bereich (meist implizit definiert) Zielfunktion Optimierungsrichtung opt {max, min} Optimierungsproblem Menge von Instanzen meist implizit
MehrApproximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling
Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani
MehrAlgorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
MehrEinführung in Approximative Algorithmen und Parametrisierte Komplexität
Einführung in Approximative Algorithmen und Parametrisierte Komplexität Tobias Lieber 10. Dezember 2010 1 / 16 Grundlegendes Approximationsalgorithmen Parametrisierte Komplexität 2 / 16 Grundlegendes Definition
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrApproximationsalgorithmen
Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrEinführung in Algorithmen und Komplexität
Einführung in Algorithmen und Komplexität SS2004 w u v High Performance = Innovative Computer Systems + Efficient Algorithms Friedhelm Meyer auf der Heide 1 Was haben wir bisher gemacht? - Rechenmodell:
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrApproximation im Sinne der Analysis:
1 Approximation im Sinne der Analysis: Satz von Weierstrass: (1815-1897) Sei f eine stetige Funktion auf [a, b]. Dann gibt es zu jedem ε > 0 ein Polynom P ε mit: max x [a,b] f(x) P ε(x) < ε Numerische
MehrKombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik
Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrKapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen
Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrNP-vollständig - Was nun?
Kapitel 4 NP-vollständig - Was nun? Wurde von einem Problem gezeigt, dass es NP-vollständig ist, ist das Problem damit nicht gelöst oder aus der Welt geschafft. In der Praxis muss es trotzdem gelöst werden.
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrAlgorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik
Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT
MehrDaniel Borchmann. Sommerakademie Görlitz September 2007
Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrApproximations-Algorithmen
Approximations-Algorithmen Institut für Computergraphik und Algorithmen Abteilung für Algorithmen und Datenstrukturen 186.102 Sommersemester 2004, 2h VU Motivation: Bereits viele einfache Optimierungsprobleme
MehrVorlesung Berechenbarkeit und Komplexität. Motivation, Übersicht und Organisatorisches
Berechenbarkeit und Komplexität: Motivation, Übersicht und Organisatorisches Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Berechenbarkeit die absoluten Grenzen
Mehrabgeschlossen unter,,,, R,
Was bisher geschah Turing-Maschinen können Sprachen L X akzeptieren entscheiden Funktionen berechnen f : X X (partiell) Menge aller Turing-akzeptierbaren Sprachen genau die Menge aller Chomsky-Typ-0-Sprachen
Mehr4 Greedy-Algorithmen (gierige Algorithmen)
Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine
MehrBabeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf
Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen
MehrReduktionen. Algorithmen und Datenstrukturen Kapitel 6.2 Komplexitätstheorie. Exkurs: Reduktionen allgemein. Reduktionen: Erläuterungen
en Algorithmen und Datenstrukturen Kapitel 6.2 Komplexitätstheorie P, und C Definition () Seien L 1, L 2 {0, 1} zwei Sprachen. Wir sagen, dass L 1 auf L 2 in polynomialer Zeit reduziert wird, wenn eine
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2006/07 in Trier. Henning Fernau Universität Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2006/07 in Trier Henning Fernau Universität Trier fernau@informatik.uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung
MehrDas Dilemma des Einbrechers Wer die Wahl hat, hat die Qual!
Das Dilemma des Einbrechers Wer die Wahl hat, hat die Qual! 0kg 4000 Euro Luster 5,5 kg, 430.- Laptop 2,0 kg, 000.- Schatulle 3,2 kg, 800.- Uhr 3,5 kg, 70.- Schwert,5 kg, 850.- Bild 3,4 kg, 680.- Besteck
MehrResolutionsalgorithmus
112 Resolutionskalkül Mit dem Begriff Kalkül bezeichnet man eine Menge von syntaktischen Umformungsregeln, mit denen man semantische Eigenschaften der Eingabeformel herleiten kann. Für den Resolutionskalkül:
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
MehrAusarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
MehrDynamische Optimierung. Kapitel 4. Dynamische Optimierung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206
Kapitel 4 Dynamische Optimierung Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206 Inhalt Inhalt 4 Dynamische Optimierung Allgemeiner Ansatz und Beispiele Stochastische dynamische
MehrApproximationsalgorithmen am Beispiel des Traveling Salesman Problem
Approximationsalgorithmen am Beispiel des Traveling Salesman Problem Seminararbeit im Rahmen des Seminars Algorithmentechnik vorgelegt von Leonie Sautter Leiter des Seminars: Juniorprof. Dr. Henning Meyerhenke
MehrDas Lastverteilungsproblem
Das Lastverteilungsproblem Approximationsalgorithmen Referent Franz Brauße Veranstaltung Proseminar Theoretische Informatik Universität Trier, FB IV Dozent Prof. Dr. Henning Fernau 23.02.2012 Übersicht
MehrProbabilistische Analyse von Algorithmen
Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s Motivation
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 1 Programm des
MehrDas Multi Traveling Salesman Problem
Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling
Mehr11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P
11 Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P 11 Woche: Turingmaschinen, Entscheidbarkeit, P 239/ 333 Einführung in die NP-Vollständigkeitstheorie
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
MehrDynamisches Programmieren - Problemstruktur
Dynamisches Programmieren - Problemstruktur Optimale Substruktur: Optimale Lösung enthält optimale Lösungen von Teilproblemen. Bsp.: Kürzester Weg im Graphen, LCS (s. etwa Folie 42 der letzten Vorlesung)
MehrGRUNDLAGEN VON METAHEURISTIKEN UND LOKALE SUCHE
Seminararbeit GRUNDLAGEN VON METAHEURISTIKEN UND LOKALE SUCHE Simeon Andreev Institut für Theoretische Informatik Karlsruher Institut für Technologie (KIT) Inhaltsverzeichnis 1 Einleitung 3 1.1 Einführung...................................
MehrDie Verbindung von Linearer Programmierung und Graphentheorie
Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrTeil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung
Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,
MehrNichtdeterministische Platzklassen
Sommerakademie 2010 Rot an der Rot AG 1: Wieviel Platz brauchen Algorithmen wirklich? Nichtdeterministische Platzklassen Ulf Kulau August 23, 2010 1 Contents 1 Einführung 3 2 Nichtdeterminismus allgemein
MehrNP-Vollständigkeit. Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984)
NP-Vollständigkeit Krautgartner Martin (9920077) Markgraf Waldomir (9921041) Rattensberger Martin (9921846) Rieder Caroline (0020984) 0 Übersicht: Einleitung Einteilung in Klassen Die Klassen P und NP
MehrApproximationsalgorithmen
Makespan-Scheduling Kapitel 4: Approximationsalgorithmen (dritter Teil) (weitere Beispiele und Illustrationen an der Tafel) Hilfreiche Literatur: Vazarani: Approximation Algorithms, Springer Verlag, 2001.
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrDiskrete Optimierung (Einführung zur Vorlesung)
Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete
MehrOptimierung I. Dr. Ulf Lorenz F2.413
Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:
MehrAufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.
Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.
MehrHybrid Optimization Methods for Warehouse Logistics and the Reconstruction of Destroyed Paper Documents
Hybrid Optimization Methods for Warehouse Logistics and the Reconstruction of Destroyed Paper Documents Betreut von: ao.univ.-prof. Dr. Günther R. Raidl ao.univ.-prof. Dr. Ulrich Pferschy 25. Jänner 2010
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
MehrScheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.
Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
MehrAlgorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie
Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie Einführung in P und NP Frank Heitmann heitmann@informatik.uni-hamburg.de 11. November 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de
MehrProseminar Online Algorithmen, Prof. Dr. Rolf Klein
Proseminar Online Algorithmen, Prof. Dr. Rolf Klein Vortrag von Michael Daumen am 13.12.2000 Thema : Minimum Spanning Tree und 2-Approximation der TSP-Tour Inhalt des Vortrags : 1. genaue Vorstellung des
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr2. Repräsentationen von Graphen in Computern
2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen
MehrMinimal spannende Bäume
http://www.uni-magdeburg.de/harbich/ Minimal spannende Fakultät für Informatik Otto-von-Guericke-Universität 2 Inhalt Definition Wege Untergraphen Kantengewichtete Graphen Minimal spannende Algorithmen
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
MehrSysteme von linearen Ungleichungen
Systeme von linearen Ungleichungen ALGEBRA Kapitel 6 MNProfil - Mittelstufe KZN Ronald Balestra CH - 8046 Zürich www.ronaldbalestra.ch Name: Vorname: 28. Februar 2016 Überblick über die bisherigen ALGEBRA
MehrAlgorithmen mit konstantem Platzbedarf: Die Klasse REG
Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik Sommersemester 2015 23.04.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Bis jetzt 1. Terminologie 2. Endliche Automaten und reguläre Sprachen
MehrBinäre lineare Optimierung mit K*BMDs p.1/42
Binäre lineare Optimierung mit K*BMDs Ralf Wimmer wimmer@informatik.uni-freiburg.de Institut für Informatik Albert-Ludwigs-Universität Freiburg Binäre lineare Optimierung mit K*BMDs p.1/42 Grundlagen Binäre
MehrAlgorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrSteinerbäume. Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering
Steinerbäume Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering Verfasser Flamur Kastrati Betreuer Prof. Dr. habil. Thomas
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie WS 2008/2009 Vorlesung: Dr. Felix Brandt, Dr. Jan Johannsen Übung: Markus Brill, Felix Fischer Institut für Informatik LMU München Organisatorisches Vorlesung Donnerstag,
Mehr9. Übung Algorithmen I
INSTITUT FÜR THEORETISCHE INFORMATIK 1 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft Institut für Theoretische www.kit.edu Informatik Musterlösung
MehrFlüsse, Schnitte, Bipartite Graphen II
Flüsse, Schnitte, Bipartite Graphen II Jonathan Hacker 06.06.2016 Jonathan Hacker Flüsse, Schnitte, Bipartite Graphen II 06.06.2016 1 / 42 Gliederung Einführung Jonathan Hacker Flüsse, Schnitte, Bipartite
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Prof. Dr. Ralf Möller Universität zu Lübeck Institut für Informationssysteme Stefan Werner (Übungen) sowie viele Tutoren Teilnehmerkreis und Voraussetzungen Studiengänge
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
Mehr5.4 Das Rucksackproblem
Problemstellung: 5.4 Das Rucksackproblem Eingabe: Ganzzahlige Volumina a 1,..., a n > 0, Nutzenwerte c 1,..., c n > 0, ganzzahlige Volumenschranke b. Aufgabe: Packe die Objekte in einen Rucksack von Volumen
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik
Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik Dozent: Prof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik
Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR
Mehr(Lineare) stochastische Optimierung
(Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:
MehrRechnerische Komplexität
Proseminar Effiziente Algorithmen SS 2002 Rechnerische Komplexität Ulrike Krönert (34180) 0. Inhalt 1. Einführung 2. Algorithmen und Komplexität 2.1. Algorithmen 2.2. Laufzeitabschätzung 2.3. Polynomialzeit
MehrLokalisierung von inneren und äußeren Grenzen in Sensornetzwerken
Lokalisierung von inneren und äußeren Grenzen in Sensornetzwerken Seminararbeit: Algorithmen für Sensornetzwerke Thomas Gramer 1 Thomas Gramer: KIT Universität des Landes Baden-Württemberg und nationales
Mehr(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
MehrLineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrSeminar über aktuelle Forschungsthemen in der Algorithmik, Dozent Prof. Dr. Alt;
Seminar über aktuelle Forschungsthemen in der Algorithmik, Dozent Prof. Dr. Alt Referent Matthias Rost 1 Einleitung Definitionen Maximaler Dynamischer Fluss Algorithmus von Ford-Fulkerson Techniken zur
Mehr3. Musterlösung. Problem 1: Boruvka MST
Universität Karlsruhe Algorithmentechnik Fakultät für Informatik WS 06/07 ITI Wagner. Musterlösung Problem : Boruvka MST pt (a) Beweis durch Widerspruch. Sei T MST von G, e die lokal minimale Kante eines
MehrS=[n] Menge von Veranstaltungen J S kompatibel mit maximaler Größe J
Greedy-Strategie Definition Paradigma Greedy Der Greedy-Ansatz verwendet die Strategie 1 Top-down Auswahl: Bestimme in jedem Schritt eine lokal optimale Lösung, so dass man eine global optimale Lösung
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrSerie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015
Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
Mehr