Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159

Ähnliche Dokumente
Der Branching-Operator B

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Optimierung. Vorlesung 12

Diskrete Optimierung: Fallstudien aus der Praxis

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010

Klausur zur Vorlesung Operations Research im Wintersemester 2009/10

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Ganzzahlige Optimierung (IP)

Klausurrepetitorium ABWL

Klausur zur Vorlesung Operations Research im Sommersemester 2009

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

3. Schnittebenenverfahren

Ecken des Zuordnungsproblems

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Inhaltsübersicht für heute:

Lineare Programmierung

3.6 Branch-and-Bound-Verfahren

Einführung in Heuristische Suche

OR für Wirtschaftsingenieure. Übungsserie 5: Das Traveling Salesman Problem

Christian Rieck, Arne Schmidt

Schranken für zulässige Lösungen

BERGISCHE UNIVERSITÄT WUPPERTAL FB B: SCHUMPETER SCHOOL OF BUSINESS AND ECONOMICS. Master of Science

Planare Graphen und Färbungen. Kapitel 7. Peter Becker (H-BRS) Graphentheorie Wintersemester 2018/ / 296

Informierte Suchverfahren

Lösung allgemeiner linearer Programme

Beispiele. mit. Beispiel 2.3. Suche einen Weg von nach. Tiefensuche bzw. Breitensuche.

Einführung in Operations Research

Ordnungsrelationen auf Mengen. Beispiel einer Ordnungsrelation. Spezielle Elemente von Ordnungen. Spezielle Elemente von Ordnungen

Ordnungsrelationen auf Mengen

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

Startzustand. Mögliche heuristische Funktionen:

Rundreisen und Touren

Zu Modellierungs- und Lösungs-Techniken für Frequenz-Zuweisungs-Probleme

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Optimierung. Vorlesung 9

3.2.5 Dualität der linearen Optimierung I

Methoden für den Entwurf von Algorithmen

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

Flüsse und Zuordnungen. Kapitel 6. Peter Becker (H-BRS) Graphentheorie Wintersemester 2018/ / 296

Lösungen von Übungsblatt 12

Anwendungsbeispiel: MTO

Uninformierte Suche in Java Informierte Suchverfahren

KAPITEL 5 ENTSCHEIDUNGSBAUMVERFAHREN

Pro Informatik 2009: Objektorientierte Programmierung Tag 18. Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik

Ordnungsrelationen auf Mengen

Heuristiken zur Optimierung. Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen

6. Softwarewerkzeuge für die Lineare Programmierung

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Die Verbindung von Linearer Programmierung und Graphentheorie

Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem

2 Heutige Lösungsverfahren

Lineare und kombinatorische Optimierung

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen

Stochastische dynamische Optimierung

Uninformierte Suche in Java Informierte Suchverfahren

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Einführung in Operations Research

Allgemeines zur Vorlesung

Traveling Salesman Problem (TSP) Exakte Algorithmen für NP-schwere Probleme Integer Lineare Programme Branch-and-Cut

ADS: Algorithmen und Datenstrukturen 2

Flüsse, Schnitte, bipartite Graphen

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

3.3 Optimale binäre Suchbäume

Das Travelling Salesman Problem Exakte Lösungsverfahren für NP-schwierige kombinatorische Optimierungsprobleme 5. VO

Sokoban. Knowledge Engineering und Lernen in Spielen. Mark Sollweck Fachbereich 20 Seminar Knowledge Engineering Mark Sollweck 1

Rückblick: divide and conquer

1 AVL-Bäume. 1.1 Aufgabentyp. 1.2 Überblick. 1.3 Grundidee

p 2istirrational Satz 1.15 Beweis. Es gibt keine rationale Zahl x, diediegleichungx 2 =2erfüllt.

Effiziente Algorithmen II

Klausur Algorithmen und Datenstrukturen

Das Traveling Salesman Problem und das Assignment Problem zweiter Ordnung. Gerold Jäger

lineare Programmierung

Aufgaben zur Klausurvorbereitung

Klausur Management Science. Donnerstag, 19. Februar 2015

Formale Grundlagen der Informatik F3: Berechenbarkeit un

Algorithmische Graphentheorie

Anhang: Ungarische Methode

Dualitätssätze der linearen Optimierung

Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Informatik II, SS 2016

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016

Algorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web:

(a, b)-bäume / 1. Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss.

Ganzzahlige OR-Methoden: Operations Research II a. Übungsblatt 13

Datenstrukturen & Algorithmen

Algorithmen II Vorlesung am

Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n)

23. November Betweenness Centrality Closeness Centrality. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Beweise aus dem Fach Grundzüge der Künstlichen Intelligenz

Algorithmen und Datenstrukturen 1-5. Seminar -

Transkript:

Kapitel 3 und Varianten Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159

Inhalt Inhalt 3 und Varianten Anwendungsbeispiele Branch-and-Cut Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 99 / 159

Schranken (1) Definition 3.1 Gegeben sei ein Maximierungsproblem der Art max F (x), u.d.n. x 2X Gilt F (x) apple B up für alle x 2X dann ist B up eine obere Schranke für den optimalen Zielfunktionswert. Gilt F (x) B low für ein x 2X dann ist B low eine untere Schranke für den optimalen Zielfunktionswert. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 100 / 159

Schranken (2) Definition 3.2 Gegeben sein ein Minimierungsproblem der Art min F (x), u.d.n. x 2X Gilt F (x) B low für alle x 2X dann ist B low eine untere Schranke für den optimalen Zielfunktionswert. Gilt F (x) apple B up für ein x 2X dann ist B up eine obere Schranke für den optimalen Zielfunktionswert. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 101 / 159

Herleitung von Schranken Für Maximierungsprobleme: obere Schranken typischerweise durch Relaxationen, z.b. LP-Relaxation bei einem ILP untere Schranken durch zulässige i.d.r. aber nicht optimale Lösungen, z.b. auf der Basis von Heuristiken Für Minimierungsprobleme: genau umgekehrt Wenn nicht anders erwähnt betrachten wir im Folgenden stets Maximierungsprobleme. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 102 / 159

Grundprinzip von Suchverfahren, das die Menge X der zulässigen Lösungen systematisch durchsucht. Wesentliche Operationen bei der Suche: Verzweigung (Branch) Teile das Ausgangsproblem P 0 (bzw. die Menge X (P 0 )derzulässigen Lösungen) in zwei Teilprobleme P 1 und P 2 (bzw. Teilmengen X (P 1 ) und X (P 2 )) auf. Beschränkung (Bound) Berechne für die Teilprobleme P 1 und P 2 obere Schranken (upper bound) B 1 up und B 2 up für die optimale Lösung in X (P 1 )undinx (P 2 ). Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 103 / 159

Nutzung von Schranken für die Suche (1) Es sei B low eine bekannte untere Schranke für X (P 0 ), z.b. der Zielfunktionswert einer bekannten zulässigen Lösung x. Dann gilt: Aus B 1 up apple B low folgt, dass X (P 1 )keinebesserelösung als x enthalten kann. Analog für B 2 up apple B low + Im Fall von B 1 up apple B low bzw. B 2 up apple B low müssen wir in X (P 1 )bzw. X (P 2 ) nicht mehr nach einer optimalen Lösung suchen. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 104 / 159

Nutzung von Schranken für die Suche (2) Es sei B up eine bekannte obere Schranke für X. Findet man ein x 2X mit F (x) =B up, dann ist x eine optimale Lösung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 105 / 159

: Prinzipieller Ablauf für ein ILP X(P0) Blow = 200 x1 <= 3 x1 >= 4 Bup = 250 X(P1) X(P2) x2 <= 2 x2 >= 3 Bup = 195 X(P1.1) X(P1.2) Bup = 220...... Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 106 / 159

Beispiele: für ILP Beispiel 3.3 Wir wollen das ILP von Beispiel 2.2 lösen. Es sei dies das Problem P 0. Die LP-Relaxation hat die optimale Lösung ( 9 4, 5 2 ) mit Zielfunktionswert 29 4. Dies liefert uns eine allgemeine obere Schranke B up = 29 4 =7. Wir unterteilen das Problem P 0 in zwei disjunkte Teilprobleme: Für P 1 gelte die zusätzliche Bedingung x 1 3. Für P 2 gelte die zusätzliche Bedingung x 1 apple 2. Für die LP-Relaxation von P 1 erhalten wir die optimale Lösung x 1 =(3, 2) mit Zielfunktionswert 7. Damit haben wir eine zulässige Lösung gefunden, deren Zielfunktionswert mit B up =7übereinstimmt. Somit ist x 1 eine optimale Lösung für P 0. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 107 / 159

Fortsetzung Beispiel. Wir brauchen P 2 nicht mehr zu lösen. Wenn wir trotzdem die zugehörige LP-Relaxation lösen, können wir B low =7setzen,dax 1 eine zulässige Lösung ist und wir erhalten x 2 =(2, 5 2 ) mit Zielfunktionswert B2 up =7apple B low als optimale Lösung für die LP-Relaxation von P 2. Hieraus folgt, dass in X (P 2 )keinebesserelösung als x 1 enthalten sein kann. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 108 / 159

Beispiel 3.4 Wir betrachten das ILP max x 1 + x 2 unter den Neben- und Vorzeichenbedingungen Tafel. 4x 1 + x 2 apple 20 4x 2 apple 10 2x 1 + 3x 2 apple 12 x 1, x 2 0 x 1, x 2 2 Z Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 109 / 159

Beispiel 3.5 (Winston, Kapitel 9.3) Die Telfa Corporation produziert Tische und Stühle. Für die Produktion eines Tisches werden eine Arbeitsstunde und 9 Quadratmeter Holz benötigt, ein Stuhl erfordert eine Arbeitsstunde und 5 Quadratmeter Holz. Es stehen 6 Arbeitsstunden und 45 Quadratmeter Holz zur Verfügung. Der Gewinn für einen Tisch beträgt 8 e, für einen Stuhl 5 e. Tafel. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 110 / 159

Beispiel 3.6 (Nickel et al., Kapitel 5.4.1) Gegeben sei das ILP max 5x 1 +2x 2 unter den Neben- und Vorzeichenbedingungen 6x 1 + 2x 2 apple 27 4x 1 + 4x 2 apple 23 x 1, x 2 0 x 1, x 2 2 Z Tafel: Mit Selektionsstrategie Maximum Upper Bound. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 111 / 159

Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 112 / 159

Was brauchen wir für? Verzweigungsregel: Wie teilen wir die Menge der zulässigen Lösungen auf? Obere Schranke: E zientes Verfahren zur Berechnung einer oberen Schranke für ein Teilproblem, z.b. eine geeignete LP-Relaxation. Optionale untere Schranke: Eine Heuristik zur Ermittlung einer guten zulässigen Lösung für ein Teilproblem (üblicherweise auf Basis der optimalen Lösung des relaxierten Problems). Selektionsstrategie: In welcher Reihenfolge werden Teilprobleme abgearbeitet? Tiefensuche? Breitensuche? Gesteuert durch die oberen Schranken? Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 113 / 159

Verzweigung (Branch) Ein Problem P 0 wird in k Teilprobleme P 1,...,P k unterteilt, sodass für die Mengen X (P i )derzulässigen Lösungen gilt: X (P 0 )= k[ X (P i ) i=1 und X (P i ) \X(P j )=; für i 6= j Die Probleme P 1,...,P k werden falls notwendig weiter unterteilt. Dadurch entsteht ein Baum von Problemen mit P 0 als Wurzel. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 114 / 159

Übliche Verzweigungsstrategien Es sei x die optimale Lösung der LP-Relaxation von P 0 und die Komponente x i = sei nicht ganzzahlig. ILP: I P 1 erhält die zusätzliche Nebenbedingung x i appleb c I P 2 erhält die zusätzliche Nebenbedingung x i d e kombinatorische Probleme: Setze x i =0für P 1 bzw. x i =1für P 2. Welches x i auswählen? Z.B. das am wenigsten bestimmte. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 115 / 159

Obere Schranken Für jedes Teilproblem P i bestimmen wir eine obere Schranke (upper bound) B i up. Hierfür lösen wir eine Relaxation Pi relax von P i, also ein gegenüber P i vereinfachtes (relaxiertes) Problem (weniger Nebenbedingungen). Es muss gelten X (P i ) X(P relax i ) Wichtig ist, dass die Relaxationen e zient gelöst werden können. Für gewöhnliche ILPs benutzt man üblicherweise LP-Relaxationen. Für spezielle kombinatorische Probleme können die Relaxationen vereinfachte und e zient lösbare Probleme sein. Beispiel: Minimalgerüst ist Relaxation für kürzesten Hamiltonschen Weg Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 116 / 159

Untere Schranken Durch die heuristische Bestimmung einer zulässigen Lösung erhält man eine untere Schranke B low. Prinzipiell nicht notwendig. Schlimmstenfalls starten wir mit B low = 1. Ist die optimale Lösung einer Relaxation auch zulässig für das eigentliche Problem P 0, stellt der zugehörige Zielfunktionswert eine untere Schranke dar. Beispiel: Bei einem ILP ist die optimale Lösung der LP-Relaxation ganzzahlig. B low ist dann im Laufe des Verfahrens gleich dem Zielfunktionswert der besten bekannten zulässigen Lösung von P 0. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 117 / 159

Auslotung eines Problems Definition 3.7 Ein Problem P i heißt ausgelotet, wenn einer der folgenden Fälle auftritt: (a) B i up apple B low In X (P i )kanneskeinebesserelösung geben als die beste bisher bekannte. (b) B i up > B low und die optimale Lösung von P relax i ist zulässig für P i. Dann hat man eine neue bisher beste zulässige Lösung für P 0 gefunden. Man setzt nun B low := B i up. (c) X (P relax i )=; Dann hat P relax i und damit auch P i keine zulässige Lösung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 118 / 159

Selektionsstrategie Tiefensuche: Durchsuche für ein noch o enes Teilproblem (Knoten im Suchbaum) zuerst den linken Teilbaum, dann den rechten Teilbaum Vorteile: I Man erhält i.d.r. schnell eine zulässige Lösung (und damit eine untere Schranke) I geringer Speicherplatzverbrauch (kleine Agenda) Nachteile: I i.d.r. größerer Suchbaum Maximum Upper Bound: Untersuche als nächstes das noch o ene Teilproblem P i mit der größten oberen Schranke B i up. Vorteil: I Suchbaum i.d.r. kleiner als bei der Tiefensuche Nachteil: I Größerer Speicherplatzverbrauch für Agenda Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 119 / 159