KAPITEL 5 ENTSCHEIDUNGSBAUMVERFAHREN

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 5 ENTSCHEIDUNGSBAUMVERFAHREN"

Transkript

1 5 Entscheidungsbaumverfahren Seite 89 KAPITEL 5 ENTSCHEIDUNGSBAUMVERFAHREN Ganzzahlige Probleme gehören häufig zur Klasse der sog. kombinatorischen Problemen, wozu man auch alle transformierten Modelle zu zählen hat:! Reihenfolgeproblem Dabei sind n Elemente einer Menge in eine optimale Reihenfolge zu bringen. Theoretisch gibt es n! Reihenfolgen, mithin im allg. sehr, sehr viele. Zu dieser Klasse gehört z.b. das Travelling Salesman Problem und das Maschinenbelegungsproblem.! Zuordnungsproblem n Elemente einer Menge sollen je einem der n Elemente einer anderen Menge optimal zugeordnet werden. Auch hier gibt es maximal n! Zuordnungen. Jedoch ist das Problem als lineares Modell wegen seiner speziellen Struktur nicht lösbar! Auswahlproblem Aus einer Menge von n Elemnten soll eine Untermenge von m Elementen ausgewählt werden. n Es gibt theoretisch Möglichkeiten. Das sog. Knapsack-Problem gehört zu dieser Klasse. m Gerade diese Probleme, ganz allgemein jedoch fast alle ganzzahligen Probleme haben i.d.r. außerordentlich viele zulässige Lösungen. Die fehlende Stetigkeitseigenschaft der Lösungsmannigfaltigkeit, d.h. die Diskretheit der Lösungen, erschweren die sog. implizite Enumeration. Darunter ist das Ausscheiden solcher Lösungen zu verstehen, die aufgrund bestimmter Eigenschaften nicht optimal sein können, weshalb sie nicht berechnet, d.h. explizit enumeriert zu werden brauchen. Es ist einleuchtend, daß eine Methode umso effizienter ist, je mehr Lösungen implizit berücksichtigt werden können, oder - was im gewissen Sinne gleichbedeutend ist - je weniger Lösungen explizit untersucht werden müssen. Bei einem LP-Problem werden beispielsweise alle (unendlich viele) Lösungen untersucht, jedoch braucht nur ein Bruchteil der Eckpunkte explizit enumeriert zu werden. Die Mehrzahl aller Lösungen wird implizit auf der Basis bestimmter Eigenschaften (Konvexität, Linearität) einbezogen. Eine ähnliche Vorgehensweise ist auch bei der Lösung von ganzzahligen Problemen anzustreben, jedoch - das sei vorausgeschickt - es ist ungleich schwerer zu erreichen. Ein Grund hierfür ist, daß häufig sehr viele Lösungen "gleichberechtigt" oder zumindest annähernd gleich gut sind, so daß es schwierig ist, einzelne (möglichst viele) durch andere zu dominieren. Das heißt, wegen der gegenseitigen Nähe und der Vielzahl der Lösungen sind letztlich sehr viele Lösungen zu untersuchen, bevor man sicher sein kann, wirklich die günstigste Entscheidungsalternative gefunden zu haben. Im schlimmsten Fall kann das sogar bedeuten, daß man alle Lösungen enumerieren muß. Bei O(n!) Lösungen ist dies in vielen Fällen jedoch ein schier aussichtloses Unterfangen. Dennoch ist es zweckmäßig, das Prinzip der Enumeration, d.h. der geordneten Entwicklung der Lösung beizubehalten. Hierfür bietet das graphische Modell des Baumes eine ausgezeichnete Strukturierungshilfe, wobei der Lösungsprozeß i.d.r. in der Wurzel begonnen wird und jede weitere Information zu einem Wachstum des Baumes führt. Jede Zustandsänderung bewirkt also das Hinzufügen eines Zweiges, das ist graphentheoretisch eine Kante und ein Knoten. Auf diese Weise entsteht eine Baumstruktur als Modell des Lösungsprozesses - im Gegensatz zum Graph als Modell des Realproblems.

2 Seite 90 5 Entscheidungsbaumverfahren Von wesentlicher Bedeutung ist natürlich, wie das Wachstum des Entscheidungsbaumes abläuft, d.h. der Lösungsprozeß fortschreitet. Hierin und in der Art der Organisation unterscheiden sich die verschiedenen Entscheidungsbaumverfahren. Ein trivialer Entscheidungsbaum ergibt sich natürlich, wenn man systematisch jede denkbare Lösung entwickelt und sie auf Zulässigkeit überprüft. Wegen der Vielzahl der Lösungen scheidet die vollständige Enumeration zur Lösung kombinatorischer Probleme aus. Die wesentliche Idee ist nun zu versuchen, nur einenteil der Lösungen explizit zu bestimmen und zu vergleichen. Nach Möglichkeit sollte dagegen der größere Teil der Lösungen durch intelligente, logische Überlegungen ausgeschlossen werden, wenn er für die optimale Lösung ohnehin nicht in Frage kommt. Im Prinzip folgt man also ähnlichen Überlegungen, die auch bei der Lösungen von LP-Problemem eine Rolle spielten. Man versucht, einen möglichst großen Teil der Lösungen implizit zu enumerieren und man könnte, - mit Einschränkungen zwar - behaupten, je mehr Lösungen man implizit berücksichtigt, desto effizienter ist das Verfahren. Allerdings - und das ist die Einschränkung - darf man den Aufwand zur implizierten Berücksichtigung nicht vernachlässigen. Die verschiedenen Entscheidungsbäume unterscheiden sich in:! der Bedeutung der Komponenten "Knoten" und "Kanten" des Baums,! der Organisation des Aufbaus des Baumes und! den zahlreichen Möglichkeiten der Verzweigungen. Diese mehr strategischen Entscheidungen haben zur Folge, daß die Lösung eines Problems dem Prinzip nach auf unterschiedliche Wegen eingekreist wird. Entsprechend definieren diese Unterschiede auch jeweils Lösungsprinzipien. Für einen konkreten Problemtyp müssen dann noch weitere Entwurfsentscheidungen getroffen werden, wie im Einzelfall vorgegangen wird. Es handelt sich dann um die Entwicklung oder Anwendung sog. Entscheidungsbaum-Verfahren. Die verschiedenen Entscheidungsbaumverfahren unterscheiden sich im wesentlichen darin, wie der Baum aufgebaut und abgearbeitet wird, und was den Knoten und Kanten des Baumes zugeordnet wird. Dabei haben sich drei Lösungsprinzipien entwickelt: Dynamische Optimierung Begrenzte Enumeration Branch & Bound Letzteres Prinzip, das wohl auch die wirksamste aller Strategien enthält, wollen wir zur Lösung von ganzzahligen Problemen einsetzen. 5.1 Branch & Bound-Verfahren 'Branch & Bound' heißt wörtlich übersetzt 'Verzweigen - und - Abschätzen'. Gemeint ist damit die uralte Lösungsstrategie des 'divide - and - conquer', d.h. des 'Teilen - und - Besiegens'. Was zu stark, zu groß, zu schwer ist, um es als Ganzes zu bezwingen, wird in kleinere Einheiten aufgeteilt, die jede für sich untersucht werden, ob sie 'besiegbar' sind, d.h. die (bzw. eine) Lösung des Problems enthalten. Da ein Problem selten schon dadurch leichter lösbar wird, daß man es verkleinert, versucht man zusätzlich abzuschätzen, ob in ihm überhaupt noch eine Lösung enthalten sein kann.

3 5.1 Branch & Bound-Verfahren Seite 91 Die Teilung des Problems wird beim Branch & Bound in Falle der Lösung ganzzahliger Probleme dadurch vorgenommen, daß der zulässige Lösungsbereih systematisch verkleinert wird. Man erhofft hiervon übersichtliche Lösungsmengen, die weiteruntersucht werden. Das Abschätzen erfolgt fast immer dadurch, daß man statt des ganzzahligen Problems ein sog. relaxiertes Problem löst. 'Relaxieren' heißt 'außer Kraft setzen'. Bei ganzzahligen Problemen wird fast immer die Ganzzahligkeitbedingung außer Kraft gesetzt, so daß ein größerer Lösungsraum entsteht, über dem die Zielfunktion im Maximum nun auch einen größeren Zielfunktionswert annehmen kann. Man gewinnt damit also eine Abschätzung, im Falle der Mximierung also eine obere Schranke. Entscheidend ist nun, welche Schlüsse man aus den Schranken zieht. Enthält das relaxierte Problem keine Lösung, so ist auch das ganzzahlige unlösbar. Ist die Schranke kleiner als eine bekannte Lösung des ganzzahligen Problems, so kann keine bessere enthalten sein. Ist schließlich die Lösung im Sinne des ganzzahligen Problems zulässig, so vergleicht man diese mit der besten bekannten zulässigen Lösung und ersetzt diese gegegebenfalls. In allen drei Fällen braucht das Teilproblem nicht weiter untersucht zu werden. Man wählt daher ein anderes Teilproblem aus und wiederholt den Prozeß bis man über alle Teilprobleme eine der drei obigen Informationszustände erreicht. In diesem Fall hat man mit der besten bekannten zulässigen Lösung die Optimallösung des Gesamtproblems. Explizit enumeriert wurden dabei nur die ganzzahligen Lösungen der Teilprobleme, die sich im Laufe des Entscheidungprozesses als zulässig herausgestellt haben. Alle anderen Lösungen wurden von der jeweils besten bekannten Lösung dominiert und damit implizit berücksichtigt. Dies ist praktisch der Nachweis der Optimalität. 5.2 Das Branch & Bound-Prinzip Nach dem zunächst relativ allgemein erläuterten Prinzip soll die grundsätzliche Vorgehensweise an einem Problem der ganzzahligen Optimierung illustriert werden. Wir werden es im weiteren das IP- Problem nennen. Die Lösungsschwierigkeiten resultieren in einem IP-Problem aus der Ganzzahligkeit für einzelne Variablen. Indem diese relaxiert, d.h. nicht gefordert wird, vergrößert man den Lösungsraum. Löst man also statt des IP-Problems seine LP-Relaxation, so ergibt sich für ein Maximierungsproblem notwendigerweise ein Zielfunktionswert, der nicht kleiner sein kann als derjenige des LP-Problems, so daß wir mit z 0 als optimalem Zielfunktionswert der LP-Relaxation LP 0 eine obere Schranke für die gesuchte Lösung z max des IP-Problems IP 0 erhalten: z max z. Falls die Lösung von LP 0 den Ganzzahligkeitsbedingungen genügt, ist man fertig, denn in diesem Fall ist z max = z 0, und man hat die gesuchte Lösung gefunden. In jedem anderen Fall ergibt sich für mindestens eine Variable, z.b. x r, ein nicht ganzzahliger Wert. Das IP-Problem IP 0, das schwer lösbar erscheint, wird nun in zwei oder mehr - nicht notwendigerweise disjunkte (obwohl sie in fast allen Algorithmen disjunkt sind) - Teilprobleme aufgeteilt, von der man sich erhofft, daß sie leichter lösbar sind, weil bereits Vorentscheidungen getroffen sind. Für alle Teilprobleme (z.b. IP 11, IP 12, IP 13 etc.) wird wieder die LP-Relaxation berechnet, d.h. es werden dielp-probleme LP 11, LP 12, LP 13 etc. gelöst. Die Teilprobleme werden zusammen mit den LP- Relaxationen in die sog. Kandidatenliste eingestellt, die alle Teilprobleme enthält, über die noch nicht befunden wurde (vgl. Abb. 5.1).

4 Seite 92 5 Entscheidungsbaumverfahren IP0 LP0: z0 Branching = Verzweigen IP11 LP11: z11 Bounding = Beschränken IP12 LP12: z12 IP13 LP13: z13 Kandidatenliste {or3ab501.pre} Abb. 5.1: Erste Schritte des Branch & Bound-Prinzips Bevor das Teilproblem in die Kandidatenliste übernommen wird, kann man bereits wichtige Tests durchführen, die man als Abbruchkriterien (engl. fathoming criteria) bezeichnet. Gemeint ist damit, daß der weitere Abbau des Entscheidungsbaums an dem zugehörigen Zweig abgebrochen wird. Abbruchkriterium FC1 Besitzt die LP-Relaxation LP j eines IP-Problems keine Lösung - d.h. ist sie widersprüchlich -, kann auch das IP-Problem IP j keine Lösung haben. Der Lösungsbereich ist leer: L(IP j ) =. Der entsprechende Zweig des Entscheidungsbaums braucht dann nicht weiter verfolgt zu werden. Das zweite Abbruchkriterium setzt voraus, daß eine zulässige Lösung des IP-Problems bekannt ist: z lfd. Diese Lösung kann z.b. mit Hilfe einer Heuristik bestimmt worden sein, oder sie ist während des laufenden Lösungsprozesses ermittelt worden. Wir setzen also voraus, daß z lfd stets der Zielfunktionswert der besten bekannten, zulässigen Lösung ist. Abbruchkriterium FC2 Falls die Lösung der LP-Relaxation LP j schlechter ist als die bislang beste bekannte Lösung, z j < z lfd, braucht der Zweig nicht weiterverfolgt zu werden.. In diesem Fall sind alle im IP j enthaltenen Lösungen als schlechter als die laufende Vergleichslösung; man sagt auch, alle Lösungen von LP j und folglich auch IP j werden von z lfd dominiert. Der Zweig braucht schließlich nicht weiterverfolgt zu werden, wenn LP j eine zulässige Lösung im Sinne des IP j hat. Abbruchkriterium FC 3 Falls die Lösung der LP-Relaxation LP j zulässig bezüglich IP j ist, d.h. die (relaxierten) Ganzzahligkeitsbedingungen erfüllt, wird geprüft, ob diese besser ist als die beste bekante Lösung: z j > z lfd.. Wenn ja, wird sie neue Vergleichslösung.

5 5.2 Das Branch & Bound-Prinzip Seite 93 In jedem Fall braucht der Zweig nicht weiter verfolgt zu werden, da jede andere ganzzahlige Lösung im IP j notwendigerweise schlechter (oder höchstens gleich gut) ist. Falls keines der drei Abbruchkriterien wirksam wird, kommt das Teilproblem in die Kandidatenliste, aus der dann ein Kandidatenproblem ausgewählt wird, um weiter aufgespalten zu werden: welches damit die Kandidatenliste verläßt, hängt von entsprechenden Kriterien ab. Üblicherweise wählt man das Problem IP k, dessen LP-Zielfunktionswert z k maximal ist, weil man damit das Problem auszusuchen hofft, bei dem die größte Chance zu bestehen scheint, eine gute Lösung zu finden. Verfolgt man den Aufbau und die Wirkung der Abbruchkriterien weiter, so ergibt sich letztendlich ein Entscheidungsbaum gemäß Abb. 5.2 Das Problem ist gelöst, wenn eine zulässige Lösung gefunden wurde (z lfd ) und die Kandidatenliste leer ist. In diesem Fall sind alle Endknoten des Baumes abgearbeitet. IP0 LP0: z0 IP11 IP12 IP12 LP11: z11 LP12: z12 LP13: z13 FC1: L(LP13) = IP24 LP24: z24 IP25 LP25: z25 IP21 IP22 IP23 LP21: z21 LP22: z22 LP23: z23 FC1: L(LP24) = FC2: z25 < zlfd. FC2. FC3: zlfd. = z23 IP31 LP31: z31 IP32 LP32: z32 FC2. FC3: zlfd. = z32 or3ab502.pre} Abb. 5.2: Ausbau des Entscheidungsbaums und Abbruch wegen verschiedener Kriterien 5.3 Ein Branch & Bound-Beispiel Das Prinzip soll nun an einem numerischen Beispiel illustriert werden: Problem IP = IP 0 Max z mit z = u.d.n , 0 ganzzahlig Löst man das Problem zunächst ohne Ganzzahligkeitsbedingung (LP-Relaxation), so ergibt sich:

6 Seite 94 5 Entscheidungsbaumverfahren Max RS Max x 3 RS z z x Tab. 5.1a-b: Lösung des Problems LP 0 Wir registrieren:! Die Lösung ist keine zulässige Lösung des IP 0.! Für die Lösung des IP muß somit gelten: z max 52.! Da der Wert von nicht ganzzahlig ist, kann man schließen, daß im IP entweder 2 oder 3 gelten muß. Indem man diese Restriktionen dem ursprünglichen Problem zufügt, ergeben sich zwei Teilprobleme. Das heißt, die Formulierung disjunkter Nebenbedingungen ergibt zwei Teilprobleme. Wir haben hiermit eine Verzweigung durchgeführt: Max RS Max ' RS Max ' x 3 RS z z z x x ' Tab. 5.2a-c: Lösung des Problem LP 11 Max RS Max x 4 RS z z x x keine zul. Lösung! x Tab. 5.3a-b: Lösung des Problem LP 12 Das Problem LP 12 hat keine zulässige Lösung, d.h. L (LP 12 ) = (FC1). Das Problem LP 11 wird in die Kandidatenliste gestellt. Der Entscheidungsbaum hat die Form von Abb Beide Probleme LP 11 und LP 12 umfassen zusammen alle ganzzahligen Lösungen, weil nur der Bereich 2 < < 3 ausgeschlossen wurde, in dem bekanntlich keine ganzzahligen Lösungen liegen können.

7 5.3 Ein Branch & Bound-Beispiel Seite 95 IP: max z A x <= b ganzz. x >= 0 Enthält alle (ganzzahligen) Lösungen. LP0: z0 = 52,5 x1 = 2,5; x2 = 0 Enthält alle ganzzahligen Lösungen. x1 <= 2 x1 >= 3 LP11: z11 = 50,25 x1 = 2; x2 = 0,75 LP12 = FC1 Enthalten zusammen alle ganzzahligen Lösungen. {or3ab503.pre} Abb. 5.3: Entscheidungsbaum 1 Das heißt, alle ganzzahligen Lösungen des IP sind garantiert im Knoten LP 11 enthalten. Da jedoch die Variable nicht ganzzahlig ist, werden hieraus wieder 2 Probleme gebildet: LP 21 : 0 zusammen mit 0 = 0: Max RS Max ' RS z z x x ' Tab. 5.4a-b: Lösung des Problems LP 21 LP 21 hat eine ganzzahlige Lösung (FC3), d.h. die erste zulässige Lösung des IP ist gefunden: z lfd = 42 LP 22 : 1: Max RS Max x 4 RS z z x x ' ' x Tab. 5.5a-b: Lösung des Problems LP 22 mit 1

8 Seite 96 5 Entscheidungsbaumverfahren Max x 3 x 4 RS z ' Tab. 5.5c: Optimale Lösung des Problems LP 22 Das Problem IP 21 hat eine ganzzahlige Lösung, es braucht nicht weiter untersucht zu werden (FC3). Das Problem IP 22 geht mit der Oberschranke z 22 = in die Kandidatenliste. Es ergibt sich also folgender Weiterbau zum Entscheidungsbaum 2 in Abb IP LP0 x1 <= 2 LP11: z11 = 50,25 x1 >= 3 LP12 x1 = 2; x2 = 0,75 x2 = 0 x2 >= 1 FC1 LP21: z21 = 42 x1 = 2; x2 = 0 LP22: z22 = 49,50 x1 = 11/6; x2 = 1 LP 22 derzeit einziges Problem in der Kandidatenliste. FC3 {or3ab504.pre} Abb. 5.4: Entscheidungsbaum 2 Aus der Kandidatenliste wird das derzeit einzige Problem LP 22 ausgewählt, und anhand der nicht ganzzahligen Variablen wird verzweigt:

9 5.3 Ein Branch & Bound-Beispiel Seite 97 LP 31 : 1 ist restriktiver als 2, es ersetzt also eine Nebenbedingung:. Max RS Max x 4 RS z z x x ' ' x Max ' x 4 RS Max ' x 3 RS z z x x Tab. 5.5a-d: Lösung des Problems LP 31 LP 32 : 2 zusammen mit 2 = 2: Max RS Max x 4 RS z z x x keine zuläss. Lösung x Tab. 5.6a-b: Lösung des Problems LP 32 Das Problem LP 32 hat keine zulässige Lösung, so daß abgebrochen werden kann (FC1). Der Entscheidungsbaum 3 hat nun die Form von Abb. 5.5.

10 Seite 98 5 Entscheidungsbaumverfahren IP LP0 <= 2 >= 3 LP11 = 0 >= 1 LP12 LP21 LP22: z 22 = 49,50 = 1 5/6; = 1 <= 1 = 2 FC1 LP31: z 31 = 43 3/4 LP32: = 1; = 2 1/4 FC1 {or3ab505.pre} Abb. 5.5: Entscheidungsbaum 3 Das Problem LP 31 aus der Kandidatenliste wird an der Variablen weiter geteilt. In der folgenden Lösung muß man auch die Nebenbedingung 1 berücksichtigen, d.h. eine Untergrenze für. Das geschieht dadurch, daß auf die Untergrenze gesetzt und durch die Variable substituiert wird. Gleichzeitig muß die Obergrenze um diesen Betrag, also 1, erniedrigt werden. LP 41 : 1: Max RS Max ' RS Max ' ' RS z z z x x x ' ' ' Tab. 5.7a-c: Lösung des Problems LP 41 : die Rücktransformation ergibt = + 1 = 2

11 LP 42 : 3 mit Ein Branch & Bound-Beispiel Seite 99 Max RS Max x 4 RS Max x 3 x 4 RS z z z x x ' ' ' x Tab. 5.8a-c: Lösung des Problems LP 42 Das Teilproblem LP 41 hat eine ganzzahlige Lösung (FC3) mit einem Zielfunktionswert z 41 = 43, der besser ist als z lfd = 42, so daß z lfd = 43 gesetzt wird und die Lösung von IP 41 die neue Vergleichslösung ist. Das Teilproblem LP 42 hat einen Zielfunktionswert von z 42 = Es kann also bestenfalls eine ganzzahlige Lösung mit dem Wert 43 enthalten, also keine bessere als z lfd (FC2). Somit ergibt sich der Entscheidungsbaum 4 in Abb IP LP0 x1 <= 2 x1 >= 3 LP11 LP12 x2 = 0 x2 >= 1 LP21 LP22 FC1 FC3 x1 <= 1 x1 = 2 LP31 LP32 x2 <= 2 x2 >= 3 FC1 LP41 LP42 FC3 FC2 {or3ab506.pre} Abb. 5.6: Vollständiger Entscheidungsbaum Alle Zweige des Entscheidungsbaums sind nun abgearbeitet, so daß die letzte laufende Lösung die gesuchte maximale Lösung des IP ist: z max = z lfd = 43 für = 1 und = 2.

12 Seite Entscheidungsbaumverfahren Die verschiedenen Verzweigungen, die jeweils durch zusätzliche Nebenbedingungen vorgenommen wurden, d.h. die Teilug des zulässigen Bereiches, läßt sich an Hand der Abb. 5.7 nachvollziehen. x2 4 3 LP LP41 LP31 LP22 LP12 Zielfunktion LP11 o x1 {or3ab507.pre} Abb. 5.7: Aufteilung des zulässigen Bereiches beim Verzweigen 5.4 Zusammenfassende Diskusssion! Mit dem Unterdrücken der Ganzzahligkeit bei der ersten Lösung geht keine ganzzahlige Lösung verloren, denn der zulässige Bereich wurde erweitert. D.h. alle Lösungen des IP sind auch zulässige Lösungen des LP.! Falls die Lösung des LP ganzzahlig wäre, wäre sie auch die optimale Löusng des IP gewesen.! Bei der ersten Verzweigung - und das gilt für alle folgenden Verzweigungen sinngemäß - wurde der zulässige Bereich, d.h. die Menge aller Lösungen in Teilmengen aufgeliedert. Das Prinzip "Teile und Besiege" der Untersuchung einer Teilmenge kann bei jedem Problem angewendet werden. Löst man Teilprobleme und vergleicht man die Lösungen, so hat man auch das größere Problem gelöst, wenn man sicherstellt, durch die Aufteilung keine Lösung verloren zu haben.! Bei der Bildung von Teilmengen bestehen relativ viele Freiheitsgrade. Es müssen lediglich zwei Bedingungen beachtet werden: keine potentielle Lösung darf verloren gehen die bisher bekannte - nicht zulässige - Lösung muß ausgeschlossen werden (vgl. Bedingungen an Schnittebenen)! Durch die Teilmengenbildung sind die Probleme i.d.r. eingeschränkter - es sind Informationen hinzugekommen. Selten sind sie jedoch wirklich leichter lösbar geworden, d.h. weniger kom-

13 5.4 Zusammenfassende Diskussion Seite 101 plex. (Ein ganzzahliges Problem ist immer schwer lösbar, auch über einen etwas kleineren Lösungsbereich) Um dennoch an mehr Information über die Lösungen zu gelangen, versucht man nun abzuschätzen, welche Lösungen überhaupt noch in Frage kommen. Eine der mächtigsten Abschätzungsmöglichkeiten ergibt sich durch Relaxation, d.h. durch Stillegung bestimmter Einschränkungen. Typischerweise werden diejenigen Bedingungen relaxiert, die für die Lösung am schwierigsten sind. Als Folge der Relaxation ergibt sich ein vergrößerter Lösungsbereich. Somit stellt die Lösung der Relaxation für ein Maximierungsproblem stets eine Oberschranke und für ein Minimierungsproblem stets eine Unterschranke dar.! Die derart gewonnene Lösung kann nun im Sinne des ersten Punktes als Untersuchung eines Teilproblems angesehen werden. Das heißt, der Prozeß wiederholt sich für das Teilproblem. Es liegt eine rekursiver Prozeß vor.! Wenn dieser rekursive Prozeß festgesetzt wird, werden zum Schluß eine große Zahl von Knoten gebildet worden sein: bei vollständiger, expliziter Enumeration für jede zulässige Lösung auch Endknoten. Da dies mit Sicherheit zu aufwendig wäre, muß man sich Gedanken machen, ob man einzelne Teilprobleme nicht mehr weiter zu untersuchen braucht.! Im vorliegendem Fall ist festzustellen: Falls eine Teilproblem keine zulässige Lösung besitzt (FC1) Falls die optimale Lösung eines Teilproblems eine zulässige Lösung des Gesamtproblems ist (FC2) Falls die optimale Lösung eines Teilproblems nicht besser ist als die beste bekannte zulässige Lösung (FC3)! Mit dem Entscheidungsbaum soll angestrebt werden: alle Lösungen zu erfassen, jedoch möglichst viele durch mathematische oder logische Deduktion, d.h. implizit zu enumerieren, bzw. möglichst frühzeitig zu erkennen, daß die in einem Teilproblem enthaltenen Lösungen nicht optimal sein können.! Das beschriebene Entscheidungsbaum-Verfahren ist das "Branch and Bound"-Verfahren von Dakin. Es ist ein Entscheidungsbaum-Verfahren, entwickelt für eine bestimmte Klasse von Problemen. Ein anderes ebenfalls für MIP-Probleme geeignetes Verfahren ist das von Land und Doig. 5.5 Vor- und Nachteile von Branch & Bound-Verfahren Nachdem die grundsätzliche Vorgehensweise beschrieben ist, sollen kurz die Vorteile der Branch & Bound-Methode diskutiert werden. Anbindung an LP-Modul

14 Seite Entscheidungsbaumverfahren Branch & Bound kann relativ einfach als Modul an ein existierendes LP-Programm angefügt werden. Die LP-Probleme benachbarter Knoten im Baum unterscheiden sich letztlich nur in einem Bound. Ausgehend von der Optimalbasis des unmittelbaren Vorgängers können daher schnell die Optimalbasen der neuen Teilprobleme berechnet werden. Dennoch sollte der Lösungsaufwand für die LP-Probleme nicht unterschätzt werden. Es können Vorkehrungen getroffen werden, solche Knoten zunächst zurückzustellen, die zu viel Rechenaufwand benötigen. Gestaltungsfreiheit des Algorithmus Der Aufbau des Baumes und die Suchstrategie bieten für den Benutzer ein Höchstmaß an Freiheitsgraden. Das bedeutet, daß drei der vier Basisentscheidungen (Knotenauswahl, Verzweigen, Lösen des Teilproblems) i.d.r. noch viele Wahlmöglichkeiten bieten. Der wesentliche Unterschied der MIP-Codes besteht darin, wie dieser Spielraum ausgefüllt wird, und wie diese Freiheitsgrade vom Benutzer problemabhängig ausgenutzt werden können. Heuristische Unterstützung Die Auswahlentscheidungen (Verzweigungsknoten, Verzweigungsvariable) können durch sinnvolle Prioritätsregeln unterstützt werden. Die auf heuristischen Prinzipien basierenden Prioritätsregeln bilden die wesentlichen Bausteine eines MIP-Codes. Die Wahl des 'richtigen' Knotens und die Entscheidung, an welcher Variablen verzweigt wird, entscheidet letztlich über die Tiefe und die Breite des Baumes, d.h. über den Lösungsaufwand. Ferner hängt es ganz wesentlich von diesen Entscheidungen ab, wie schnell man 'gute' IP-Lösungen findet, die ihrerseits mächtige Schranken darstellen. Verwendbarkeit der Lösung bei Abbruch Der Benutzter verfügt mit jeder IP-Lösung, deren Optimalität noch nicht nachgewiesen ist, mindestens über eine untere Schranke im Minimierungsfall (eine obere Schranke beim Maximierungs-Problem), anhand derer er seine beste Lösung beurteilen kann. Die in der Kandidatenliste verbliebenen Knoten können nur noch Lösungen enthalten, deren Funktionswert zwischen dem besten Wert z j der restlichen Knoten und der bekannten IP- Lösung z lfd liegen. Ist der Abstand z j - z lfd gering, so ist die Wahrscheinlichkeit groß, daß z lfd maximal ist oder mindestens nahe am Optimum liegt. Zum Nachweis der Optimalität müßte der Entscheidungsbaum vollständig abgearbeitet werden. Auf diesen, in den meisten Fällen sehr aufwendigen Prozeß kann dann u.u. verzichtet werden, wenn man nicht unbedingt die optimale Lösung berechnen muß bzw. auf den Nachweis der Optimalität verzichten kann. Den mannigfaltigen Vorteilen des Branch & Bound stehen jedoch auch gewichtige Nachteile gegenüber. # Hoher Speicheraufwand Die größten Schwierigkeiten ergeben sich aus dem i.d.r. enorm hohen Speicheraufwand- Die Verwaltung der erwähnten Kandidatenliste erfordert einen hohen Grad an Datenorganisation, wobei folgende Informationen vorgehalten werden müssen:

15 5.5 Vor- und nachteile von Branch & Bound-Verfahren Seite 103 Der Entscheidungsbaum selbst muß abgebildet werden, damit nachvollziehbar wird, welche Restriktionen für die Verzweigung verwendet wurde. Jedes Blatt, d.h. jeder in die Kandidatenliste aufgenommene Knoten enthält eine vollständige LP-Relaxation, dessen optimale Lösung festgehalten wird (Basis, Variablen). Auf diese Lösung muß im Fall derauswahl und des Verzweigens 'aufgesetzt' werden, so daß hieraus durch Reinversion und Upper-Bounding-Technik mit möglichst geringem Aufwand die neue Lösung berechnet werden kann. Da die Anzahl der zurückgestellten Knoten i.allg. sehr groß wird, ergibt sich ein hoher Suchaufwand (information retrieval). # Rechenaufwand Durch die wiederholte Lösung vieler LP-Probleme ergibt sich ein hoher Rechenaufwand. Ein für die 'Zu-Fuß-Rechnung' scheinbar großes Problem, das der wiederholten Lösung der LP-Relaxation, sei zwar erwähnt; es stellt sich jedoch als eher unwesentlich heraus, da der Schritt von der Optimallösung des Vorgangsknotens zur neuerlichen Lösung i.d.r. nur wenige Iterationen (häufig nur eine) bedeutet. # Variable Problemgröße Unangenehm ist auch, daß die Problemdimension, d.h. im wesentlichen die Anzahl der Nebenbedingungen und damit die Basisgröße, nicht konstant ist. Das erschwert eine optimale Datenverwaltung in Listenform, weil die Einträge pro Knoten unterschiedliche Längen besitzen. Andererseits sind die hinzu kommenden Nebenbedingungen grundsätzliche Bounds, die wiederum einfach zu verwalten sind. Die Vor- und Nachteile der Branch & Bound-Verfahren gegeneinander aufrechnen, macht wenig Sinn. Wesentlicher ist, sie mit alternativen Verfahren, z.b. dem Schnittebenenverfahren, zuvergleichen. Dann allerdings schneiden Branch & Bound-Verfahren günstiger ab, weil sie sich bei den kritischen Punkten, Rundungsfehler und langsame Konvergenz, besser verhalten. Nicht gering schätzen darf man die 'primale Natur' der Branch & Bound-Verfahren, die auch beim Abbruch eine zulässig Lösung liefern. Bei schwierigen, schlecht strukturierten Problemen kann es durchaus zu Lösungszeiten kommen, die im Bereich mehrerer Stunden liegen. Es ist dann äußerst ärgerlich, wenn man wegen einer Zeitbeschränkung oder wegen zu großer Rundungsfehler "aussteigt", ohne wenigstens eine zulässige Lösung zu kennen. Bei der Anwendung des Branch&Bound hat man dann zumindest die Lösung z lfd, die häufig bereits die optimale Lösung ist, für die lediglich der Nachweis der Optimalität noch nicht vollständig geführt wurde. 5.6 Entwurfsentscheidungen beim Branch & Bound In der Abb. 5.8 ist ein allgemeines Ablaufschema wiedergegeben, das von Geoffrion und Marsten 1 für alle Algorithmen der ganzzahligen Planungsrechnung entwickelt wurde. Es enthält 12 Schritte, 1 Geoffrion, A.M.; Marsten, R.E.: Integer Programming Algorotithmus: A Framework and State-of-the-Art Survey, in: Management Science, 18, No. 9, May 1972

16 Seite Entscheidungsbaumverfahren die im einzelnen zuvor bereits beschrieben, kommentiert und anhand des Beispiels illustriert worden waren. Daher spricht das Flußdiagramm weitgehend für sich, und es sollen lediglich einige Bemerkungen zu den einzelnen Schritten angefügt werden: Schritt 1: Vorkenntnisse über das zu lösende Problem (MIP) können zu Informationen über eine relativ gute Schranke z 0 führen. Je besser diese ausfällt, desto weniger lang wird die Kandiatenliste. Heuristiken könnten z.b. verbesserte Schranken liefern. Beginn STOP 1 Initiiere Kandidatenliste Ja 2 Liste leer? Nein 3 Wähle Kandidatenproblem IPk 4 Relaxiere IPk => LPk 5 Löse LPk Ja 6 FC1: L(LPk) =? Ja 7 Nein FC2: zk <= zlfd? 12 Aktualisiere falls möglich zlfd Ja 8 Nein FC3: Ist zk zulässig? 11 Teile IPk Nein Nein 9 Weiter mit LPk? 10 Ja Modifiziere Relaxation {or3ab508.pre} Abb. 5.8: Allgemeines Ablaufschema der Algorithmen der ganzzahligen Planungsrechnung Schritt 3: Verschiedene Regeln zur Auswahl des Kandidatenproblems können den Enumerationsablauf erheblich beeinflussen. 'Last-In-First-Out' (LIFO) wurde das jeweils letzte Problem zum Verzweigen wählen, d.h. die Buchhaltung des Baumes könnte stark vereinfacht werden. Jedoch würde man dabei den Zielfunktionswert zur Steuerung des Enumerati-

17 5.6 Entwurfsentscheidungen beim Branch & Bound Seite 105 onsprozesses ganz außer acht lassen. Z.B. würde man darauf verzichten, möglichst früh eine besonders gute Lösung finden zu können - dies bliebe dem Zufall überlassen. Lineare Prioritätsregeln könnten in der Kandidatenliste Probleme nach ganz gezielten Gesichtspunkte (z.b. größter Zielfunktionswert, Anzahl ganzzahliger Variablen, o.ä.) angewendet werden. Das setzt jedoch eine viel aufwendigere Auswahl und entsprechende Buchhaltung voraus. Schritte 4 und 5: Die Relaxation und anschließende Lösung sollte einerseits gute Schranken liefern und andererseits leicht durchführbar sein. Auch hier ist zusätzlicher Aufwand vorstellbar, um schärfere Schranken zu erhalten. Beispielsweise kann man Schnittebenen einführen, so daß die Wahrscheinlichkeit wächst, nah-optimale Lösungen zu finden. Schritte 6 bis 8: Die Abbruchkriterien sind oben beschrieben. Schritt 10: Konnte das Problem nicht ausgeschieden werden, so kann man durch Modifikation der Relaxation ( Schnittebenen!) eventuell eine verbesserte Schranke und damit eine erhöhte Chance des Abbruchs erhalten. Schritt 11: In diesem allgemeinen Ablaufschema wird nach der Untersuchung des Kandidatenproblems dieses aufgeteilt (Verzweigung), und beide Probleme kommen in eine Kandidatenliste. Schritt 12: Sobald eine verbesserte Lösung gefunden wurde und die laufende beste Lösung z lfd aktualisiert ist, können die Probleme in der Kandidatenliste mit dieser verglichen werden. Kleinere Schranken z j < z lfd führen zum Ausschluß aus der Kandidatenliste, so daß die Liste u.u. mit einem Schlag stark verkleinert werden kann. Das Branch & Bound-Prinzip beruht auf dem Aufbau und der Abarbeitung eines Entscheidungsbaumes, der nichts anderes als ein Strukturierungs-Modell als Lösungsprozeß darstellt. Während das Netzwerk oder der Basisbaum darin eine Abbildung des Realproblems darstellt, ist hier der Baum Hilfsmittel zur Darstellung und zum Ordnen des Lösungsganges. Je nach Bedeutung von Knoten und Kanten des Entscheidungsbaumes und nach der Organisation des Aufbaus und Abarbeitung unterscheidet man verschiedene Prinzipien:! Branch &Bound! Dynamische Programmierung! Begrenzte (implizite) Enumeration Die Tab. 5.9 gibt eine kurze Übersicht über die Charakterisika der verschiedenen Prinzipien. Bedeutung von Branch & Bound Dynamische Prog. Begrenzte Enumeration Knoten Teilproblem mit vollständigen Lösungen Teillösungen (also unvollständig) Teillösungen (unvollständig) Kanten Zustandsänderung durch Teilung der Lösungsmenge Zustandsänderung zum Zweck der Vervollständigung der Lösung Zustandsänderung zum Zweck der Vervollständigung der Lösung Organisation gemischt (parallel, sequentiell) streng parallel (in die Breite) sequentiell, um rasch eine vollständige Lösung zu erhalten Tab. 5.9: Charakteristika von Entscheidungsbaumverfahren

18 Seite Entscheidungsbaumverfahren Um ein konkretes Problem zu lösen, müssen dann letztlich die verschiedenen Schritte des Ablaufschemas (Abb. 5.8) durch konkrete Realisationen und Regeln ausgestaltet werden, d.h. man muß letztendlich befinden: Wo (im Baum) soll fortgefahren werden? Wie soll verzweigt werden? Wie findet man eine Schranke? Wann soll abgebrochen werden? Die am Beispiel in Abschnitt 5.3 vollzogenen Entscheidungen wurden von Dakin zur Lösung von MIP vorgeschlagen. Es ist abschließend algorithmisch zusammengefaßt. 5.7 Branch & Bound-Algorithmus von Dakin Das Verfahren von Dakin ist der Kern aller MIP-Software-Programme. Es wird im folgenden für ein Maximierungsproblem beschrieben. Branch & Bound-Verfahren von Dakin Input: Output: z max, x max 2 Voraussetzung: Schritt 1: Schritt 2: Schritt 3: Gemischt ganzzahliges Problem (MIP) LP-Relaxationen sind in Kandidatenliste gespeichert. Die Auswahl wird nach der großen Schranke (z j ) vorgenommen. Initialisierung Löse die LP-Relaxation LP 0 des Gesamtproblems: z 0, x 0. Falls die Lösung zulässig ist, ist die MIP-Lösung gefunden und die Rechnung ist beendet. Andernfalls füge LP 0 der Kandidatenliste zu, setze z llfd = 0 (oder einer bekannten, besseren Schranke) und gehe nach Schritt 2. Wahl des Kandidatenproblems LP k Wähle aus der Kandidatenliste ein Kandidatenproblem, z.b. durch z k j { z j} = max und gehe nach Schritt 3. Falls die Kandiatenliste leer ist, ist z max = z lfd und x max = x lfd, Stop. Verzweigen (Branching) 3.1 Wähle eine ganzzahlige Variable, die in der Lösung nicht ganzzahlig ist, z.b. die Variable x r, die von der Ganzzahligkeit am weitesten entfernt ist: x x f r r r = + mit f = max { f } 3.2 Bilde das Nachfolgeproblem zu LP k, indem die Grenzen r i i 2 Die Variable ist hier fett gedruckt, weil darunter der ganze Lösungsvektor zu verstehen ist.

19 5.7 Branch & Bound-Algorithmus von Dakin Seite 107 Schritt 4: x x bzw. x x + 1 eingeführt werden. r r r r 3.3 Füge jeweils eine Schranke dem Problem LP k hinzu, es entstehen die beiden Nachfolgerprobleme: LP k,1 und LP k, Passe die neue Nebenbedingung der Optimallösung von LP k an, und löse das entstandene Problem. Abbruch (Bounding) Verwirf das Problem LP k,i, falls 4.1 L (LP k,i ) =, d.h. LP k,i keine zulässige Lösung besitzt (FC1). 4.2 z k,i z lfd, d.h. die Schranke z k,i bereits schlechter ist als die beste bisher bekannte Lösung (FC2). 4.3 z k,i, x k,i, zulässig sind. Ist z k,i z lfd, verfahre wie unter 4.2. Falls z k,i > z lfd, setze z lfd = z k,i und x lfd = x k,i (FC3). In allen anderen Fällen wird LP k,i in die Kandidatenliste übernommen. Gehe nach Schritt 2. Algorithmus 5.1: Branch & Bound-Verfahren nach Dakin Bei binären Problemen (0-1) vereinfacht sich das Verfahren insofern, als bei Einführung kontinuierlicher Grenzen 0 x j 1 bei Nichtganzzahligkeit nur die beiden Bedingungen x j = 0 oder x j = 1 denkbar sind. Diese Alternativen sind dann die Verzweigungen, so daß in der entsprechenden optimalen Lösung, aus der die Nachfolgerprobleme generiert werden, die Variable x j. auf die Werte 0 oder 1 fixiert wird.

20 Seite Entscheidungsbaumverfahren

21 5.7 Branch & Bound-Algorithmus von Dakin Seite 109 KAPITEL 5 ENTSCHEIDUNGSBAUMVERFAHREN Branch & Bound-Verfahren Das Branch & Bound-Prinzip Ein Branch & Bound-Beispiel Zusammenfassende Diskusssion Vor- und Nachteile von Branch & Bound-Verfahren Entwurfsentscheidungen beim Branch & Bound Branch & Bound-Algorithmus von Dakin...106

Ganzzahlige Optimierung (IP)

Ganzzahlige Optimierung (IP) Thema Ganzzahlige Optimierung (IP) Systematik * Problematik * Pragmatik IP und Branch and Bound 1 Agenda 1. Relevanz der Ganzzahligkeit? 2. Formulierung ganzzahliger Modelle 3. Zur Lösung ganzzahliger

Mehr

Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159

Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159 Kapitel 3 und Varianten Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159 Inhalt Inhalt 3 und Varianten Anwendungsbeispiele Branch-and-Cut Peter Becker (H-BRS) Operations Research

Mehr

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010 Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für

Mehr

Optimierung. Vorlesung 12

Optimierung. Vorlesung 12 Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des

Mehr

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung 32KAPITEL 3. NP-SCHWIERIGE KOMBINATORISCHE OPTIMIERUNGSPROBLEME n Anzahl der Ungleichungen 3 8 4 20 5 40 6 910 7 87.472 8 >488.602.996 Tabelle 3.1: Anzahl der Ungleichungen des LOP-Polytops für n 8 3.4

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

Der Branching-Operator B

Der Branching-Operator B Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte

Mehr

2 Heutige Lösungsverfahren

2 Heutige Lösungsverfahren Heutige Lösungsverfahren 5 Heutige Lösungsverfahren Die gemischt-ganzzahligen Modelle unterscheiden sich, wie in Kapitel. dargestellt, von den reinen LP-Modellen nur durch die Ganzzahligkeitsrestriktionen.

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

3.6 Branch-and-Bound-Verfahren

3.6 Branch-and-Bound-Verfahren 36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von

Mehr

Einführung in Operations Research

Einführung in Operations Research Wolfgang Domschke Andreas Drexl Einführung in Operations Research Achte Auflage fyj Springer Inhaltsverzeichnis Vorwort Symbolverzeichnis V XIII Kapitel 1: Einführung 1 1.1 Begriff des Operations Research

Mehr

Schnittebenenverfahren für das symmetrische

Schnittebenenverfahren für das symmetrische Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren

Mehr

P, NP und NP -Vollständigkeit

P, NP und NP -Vollständigkeit P, NP und NP -Vollständigkeit Mit der Turing-Maschine haben wir einen Formalismus kennengelernt, um über das Berechenbare nachdenken und argumentieren zu können. Wie unsere bisherigen Automatenmodelle

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 05 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute Einführung Grundlagen von Algorithmen Grundlagen

Mehr

Electronic Design Automation (EDA) Technology Mapping

Electronic Design Automation (EDA) Technology Mapping Electronic Design Automation (EDA) Technology Mapping Überblick digitale Synthese Technology Mapping Abbildung durch die Abdeckung eines Baumes Partitionierung des DAG Dekomposition und Abdeckung Beispiel

Mehr

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie

Mehr

Dynamische Programmierung. Problemlösungsstrategie der Informatik

Dynamische Programmierung. Problemlösungsstrategie der Informatik als Problemlösungsstrategie der Informatik und ihre Anwedung in der Diskreten Mathematik und Graphentheorie Fabian Cordt Enisa Metovic Wissenschaftliche Arbeiten und Präsentationen, WS 2010/2011 Gliederung

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Vorlesung 4: Suchstrategien Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 14. April 2017 HALBORDNUNG TOPOLOGISCHE ORDNUNG TOPOLOGISCHES

Mehr

Datenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15

Datenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15 Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 18. März

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 07 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Programm heute Einführung Grundlagen von Algorithmen

Mehr

Verfeinerungen des Bayesianischen Nash Gleichgewichts

Verfeinerungen des Bayesianischen Nash Gleichgewichts Spieltheorie Sommersemester 007 Verfeinerungen des Bayesianischen Nash Gleichgewichts Das Bayesianische Nash Gleichgewicht für Spiele mit unvollständiger Information ist das Analogon zum Nash Gleichgewicht

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

Operatoren für das Fach Mathematik

Operatoren für das Fach Mathematik Operatoren für das Fach Mathematik Anforderungsbereich I Angeben, Nennen Sachverhalte, Begriffe, Daten ohne nähere Erläuterungen und Begründungen, ohne Lösungsweg aufzählen Geben Sie die Koordinaten des

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

6. Softwarewerkzeuge für die Lineare Programmierung

6. Softwarewerkzeuge für die Lineare Programmierung 6. Softwarewerkzeuge für die Lineare Programmierung Inhalt 6. Softwarewerkzeuge für die Lineare Programmierung GNU Linear Programming Kit Operations Research I Hochschule Bonn-Rhein-Sieg, SS 2013 314 GNU

Mehr

Top-down Bottom-up Divide & Conquer Dynamisches Programmieren Caching (Memoization) Branch-and-Bound Greedy

Top-down Bottom-up Divide & Conquer Dynamisches Programmieren Caching (Memoization) Branch-and-Bound Greedy 2.2 Entwurfsparadigmen Top-down Bottom-up Divide & Conquer Dynamisches Programmieren Caching (Memoization) Branch-and-Bound Greedy 1 Top-Down Zerlege das gegebene Problem in Teilschritte Zerlege Teilschritte

Mehr

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe 3. Elementare Graphalgorithmen und Anwendungen 4. Minimal spannende Bäume 5. Kürzeste Pfade 6. Traveling Salesman Problem 7. Flüsse

Mehr

Polynomgleichungen. Gesetzmäßigkeiten

Polynomgleichungen. Gesetzmäßigkeiten Polynomgleichungen Gesetzmäßigkeiten Werden zwei Terme durch ein Gleichheitszeichen miteinander verbunden, so entsteht eine Gleichung. Enthält die Gleichung die Variable x nur in der 1. Potenz, so spricht

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken

Mehr

Kapitel 1: Fallstudie Bipartite Graphen Gliederung der Vorlesung

Kapitel 1: Fallstudie Bipartite Graphen Gliederung der Vorlesung Kapitel : Fallstudie Bipartite Graphen Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und. Minimal spannende Bäume. Kürzeste Wege 6. Traveling Salesman

Mehr

9 Minimum Spanning Trees

9 Minimum Spanning Trees Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2007 11. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen Safe

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2009 11. Vorlesung Uwe Quasthoff Universität Leipzig Institut für Informatik quasthoff@informatik.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Anhang: Ungarische Methode

Anhang: Ungarische Methode Ungarische Methode 107 Anhang: Ungarische Methode Zum Schluss des Kurses soll noch der Algorithmus der Ungarischen Methode beschrieben werden. Wir lehnen uns hierbei eng an der Darstellung von DOMSCHKE

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Graphen (1) Darstellung Traversierung Dr. Frank Seifert Vorlesung Datenstrukturen - Sommersemester 2016 Folie 441 Generalisierung von Bäumen Verallgemeinerung (von Listen zu Graphen)

Mehr

Toleranzbasierte Algorithmen für das Travelling Salesman Problem. Gerold Jäger

Toleranzbasierte Algorithmen für das Travelling Salesman Problem. Gerold Jäger Toleranzbasierte Algorithmen für das Travelling Salesman Problem Gerold Jäger (Zusammenarbeit mit Jop Sibeyn, Boris Goldengorin) Institut für Informatik Martin-Luther-Universität Halle-Wittenberg gerold.jaeger@informatik.uni-halle.de

Mehr

Kap. 7.3 Enumerationsverfahren Kap. 7.4 Branch-and-Bound Kap. 7.5 Dynamische Programmierung

Kap. 7.3 Enumerationsverfahren Kap. 7.4 Branch-and-Bound Kap. 7.5 Dynamische Programmierung Kap. 7.3 Enumerationsverfahren Kap. 7.4 Branch-and-Bound Kap. 7.5 Dynamische Programmierung Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund ACHTUNG: Die VO

Mehr

Prof. Dr. Hans G. Bartels Frankfurt, SS 2002

Prof. Dr. Hans G. Bartels Frankfurt, SS 2002 Prof. Dr. Hans G. Bartels Frankfurt, SS 00 Klausur zur Veranstaltung Ganzzahlige und Kombinatorische Optimierung Bearbeiter Maximale Punktzahl: Matr.-Nr. :... Studienfach :... Semesterzahl :... Tragen

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen

Zentralübung zur Vorlesung Diskrete Strukturen WS 2010/11 Zentralübung zur Vorlesung Diskrete Strukturen Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2010ws/ds/uebung/ 2. Februar 2011 ZÜ DS ZÜ XIII 1. Übungsbetrieb:

Mehr

kontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung

kontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung Theoretische Informatik Rainer Schrader Zentrum für Angewandte Informatik Köln 14. Juli 2009 1 / 40 2 / 40 Beispiele: Aus den bisher gemachten Überlegungen ergibt sich: aus der Chomsky-Hierarchie bleiben

Mehr

Systems of Distinct Representatives

Systems of Distinct Representatives Systems of Distinct Representatives Seminar: Extremal Combinatorics Peter Fritz Lehr- und Forschungsgebiet Theoretische Informatik RWTH Aachen Systems of Distinct Representatives p. 1/41 Gliederung Einführung

Mehr

Das Problem des Handlungsreisenden

Das Problem des Handlungsreisenden Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

11. Übung zu Algorithmen I 6. Juli 2016

11. Übung zu Algorithmen I 6. Juli 2016 11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

19. Dynamic Programming I

19. Dynamic Programming I 495 19. Dynamic Programming I Fibonacci, Längste aufsteigende Teilfolge, längste gemeinsame Teilfolge, Editierdistanz, Matrixkettenmultiplikation, Matrixmultiplikation nach Strassen [Ottman/Widmayer, Kap.

Mehr

Der Alpha-Beta-Algorithmus

Der Alpha-Beta-Algorithmus Der Alpha-Beta-Algorithmus Maria Hartmann 19. Mai 2017 1 Einführung Wir wollen für bestimmte Spiele algorithmisch die optimale Spielstrategie finden, also die Strategie, die für den betrachteten Spieler

Mehr

Nullstellen von Polynomen

Nullstellen von Polynomen Nullstellen von Polynomen W. Kippels 2. Februar 2018 Inhaltsverzeichnis 1 Einleitung 3 2 Nullstellenbestimmung eines Polynoms 3 2.1 Nullstellenbestimmung für Polymome 1. und 2. Grades.......... 3 2.2 Nullstellenbestimmung

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 22. Januar 2014 ZÜ DS ZÜ XIII

Mehr

Sensitivitätsanalyse in der Linearen Optimierung

Sensitivitätsanalyse in der Linearen Optimierung Sensitivitätsanalyse in der Linearen Optimierung Bei der Sensitivitätsanalyse werden i. allg. Größen des Ausgangsproblems variiert, und es wird untersucht, welche Wirkung eine derartige Modifikation auf

Mehr

Matchings in Graphen. Praktikum Diskrete Optimierung (Teil 5)

Matchings in Graphen. Praktikum Diskrete Optimierung (Teil 5) Praktikum Diskrete Optimierung (Teil 5) 6.05.009 Matchings in Graphen Es sei ein ungerichteter Graph G = (V, E) gegeben. Ein Matching in G ist eine Teilmenge M E, so dass keine zwei Kanten aus M einen

Mehr

Überblick Kap. 5: Graph Coloring

Überblick Kap. 5: Graph Coloring Überblick Kap. 5: Graph Coloring Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 10./11. VO 18.12.0 / 8.1.07 5.1 Einführung Definition und Motivation Sudoku 5.2 ILP-Formulierungen

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

Logistik: Transport. Grundlagen, lineare Transport- und Umladeprobleme. von Prof. Dr. Wolfgang Domschke. TU Darmstadt. 5.,.überarbeitete Auflage

Logistik: Transport. Grundlagen, lineare Transport- und Umladeprobleme. von Prof. Dr. Wolfgang Domschke. TU Darmstadt. 5.,.überarbeitete Auflage Logistik: Transport Grundlagen, lineare Transport- und Umladeprobleme von Prof. Dr. Wolfgang Domschke TU Darmstadt 5.,.überarbeitete Auflage R. Oldenböurg Verlag München Wien Inhaltsverzeichnis Vorwort

Mehr

Methoden für den Entwurf von Algorithmen

Methoden für den Entwurf von Algorithmen Methoden für den Entwurf von Algorithmen Greedy Algorithmen: - Löse ein einfaches Optimierungsproblem durch eine Folge vernünftiger Entscheidungen. - Eine getroffene Entscheidung wird nie zurückgenommen.

Mehr

9. Heuristische Suche

9. Heuristische Suche 9. Heuristische Suche Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S Heuristische Suche Idee: Wir nutzen eine (heuristische)

Mehr

U. Rausch, 2010 Ganze Zahlen 1

U. Rausch, 2010 Ganze Zahlen 1 U. Rausch, 2010 Ganze Zahlen 1 Ganze Zahlen 1 Einleitung Als ganze Zahlen bezeichnet man die natürlichen Zahlen 1, 2,, 4,..., die Null 0 und die negativen ganzen Zahlen 1, 2,, 4,... Wir verabreden die

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Vorlesung 13: Flüsse und Zuordnungen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 9. Juni 2017 DURCHSATZ D(e) ist die maximale Flussmenge,

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Wirtschaftsmathematik für International Management (BA)

Wirtschaftsmathematik für International Management (BA) Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) WS 2011/12 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ws/ds/uebung/ 25. Januar 2012 ZÜ DS ZÜ XIII

Mehr

Einstieg in die Informatik mit Java

Einstieg in die Informatik mit Java 1 / 20 Einstieg in die Informatik mit Java Rekursion Gerd Bohlender Institut für Angewandte und Numerische Mathematik Gliederung 2 / 20 1 Überblick 2 Rekursion 3 Rekursive Sortieralgorithmen 4 Backtracking

Mehr

2 Funktionen einer Variablen

2 Funktionen einer Variablen 2 Funktionen einer Variablen 2.1 Einführende Beispiele Kostenfunktion und Stückkostenfunktion: Das Unternehmen Miel produziert hochwertige Waschmaschinen. Es hat monatliche Fikosten von 170.000. Die sind

Mehr

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften 1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften

Mehr

Kap. 5: Graph Coloring

Kap. 5: Graph Coloring Kap. 5: Graph Coloring Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 10./11. VO 18.12.06 / 8.1.07 Überblick 5.1 Einführung Definition und Motivation Sudoku 5.2 ILP-Formulierungen

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

Übung QM 1 EINFÜHRUNG 1. 1 Einführung. ohne Übungsaufgaben

Übung QM 1 EINFÜHRUNG 1. 1 Einführung. ohne Übungsaufgaben Übung QM 1 EINFÜHRUNG 1 1 Einführung ohne Übungsaufgaben Übung QM 2 LINEARE OPTIMIERUNG 2 2 Lineare Optimierung Aufgabe 2.1 LP-Modellierung und Begriffe Wild West GmbH produziert Cowboyhüte. Momentan werden

Mehr

Lineare Optimierungsaufgaben - eine Einführung

Lineare Optimierungsaufgaben - eine Einführung Lineare Optimierungsaufgaben - eine Einführung Aufgabenstellung, Beispiele, graphisches Lösen und Trafo auf Normalform Vortragsskript von Lorenz Fischer Operations Research bedeutet die Suche nach einer

Mehr

Algorithmen und Datenstrukturen 1

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen 1 7. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@informatik.uni-leipzig.de aufbauend auf den Kursen der letzten Jahre von E. Rahm, G. Heyer,

Mehr

1. Einleitung wichtige Begriffe

1. Einleitung wichtige Begriffe 1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und

Mehr

4 Der Gauß Algorithmus

4 Der Gauß Algorithmus 4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x

Mehr

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Induktion und Rekursion 3.3 Boolsche Algebra

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Induktion und Rekursion 3.3 Boolsche Algebra Überblick 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 3.3 Boolsche Algebra Peer Kröger (LMU München) Einführung in die Programmierung WS 14/15 72 / 179 Beweisprinzip der vollständigen Induktion

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Algorithmen & Programmierung. Steuerstrukturen im Detail Selektion und Iteration

Algorithmen & Programmierung. Steuerstrukturen im Detail Selektion und Iteration Algorithmen & Programmierung Steuerstrukturen im Detail Selektion und Iteration Selektion Selektion Vollständige einfache Selektion Wir kennen schon eine Möglichkeit, Selektionen in C zu formulieren: if

Mehr

U. Rausch, 2010 Potenzrechnung 1

U. Rausch, 2010 Potenzrechnung 1 U. Rausch, 2010 Potenzrechnung 1 Potenzrechnung 1 Schreibweise und Potenzrechenregeln Unter einer Potenz versteht man ein Symbol der Form a x, gesprochen a hoch x, wobei a und x (reelle) Zahlen sind. Dabei

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen

Mehr

Graphdurchmusterung, Breiten- und Tiefensuche

Graphdurchmusterung, Breiten- und Tiefensuche Prof. Thomas Richter 18. Mai 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 18.05.2017 Graphdurchmusterung,

Mehr

2. Hausübung Algorithmen und Datenstrukturen

2. Hausübung Algorithmen und Datenstrukturen Prof. Dr. Gerd Stumme, Folke Eisterlehner, Dominik Benz Fachgebiet Wissensverarbeitung 7.4.009. Hausübung Algorithmen und Datenstrukturen Sommersemester 009 Abgabetermin: Montag, 04.05.009, 10:00 Uhr 1

Mehr

13 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang

13 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 13 (2-4)-Bäume (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 2. Die Ordnung (maximale Anzahl der Söhne eines Knotens) ist gleich 4 3. Innere Knoten haben 2 Söhne

Mehr

Isomorphie von Bäumen

Isomorphie von Bäumen Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr