DER LIFT & PROJECT- SCHNITTEBENENALGORITHMUS FÜR GEMISCHT-GANZZAHLIGE 0/1-OPTIMIERUNGSAUFGABEN

Größe: px
Ab Seite anzeigen:

Download "DER LIFT & PROJECT- SCHNITTEBENENALGORITHMUS FÜR GEMISCHT-GANZZAHLIGE 0/1-OPTIMIERUNGSAUFGABEN"

Transkript

1 DER LIFT & PROJECT- SCHNITTEBENENALGORITHMUS FÜR GEMISCHT-GANZZAHLIGE 0/1-OPTIMIERUNGSAUFGABEN Diplomarbeit von Stefan Körkel Betreuer: Prof. Dr. Gerhard Reinelt März 1995 UNIVERSITÄT HEIDELBERG FAKULTÄT FÜR MATHEMATIK

2 II

3 Erklärung Hiermit erkläre ich, daß ich diese Arbeit selbständig verfaßt, keine anderen als die angegebenen Quellen und Hilfsmittel benutzt und alle Stellen, die dem Wortlaut oder Sinne nach anderen Werken entnommen sind, durch Angabe der Quellen als Entlehnungen kenntlich gemacht habe. Heidelberg, im März 1995 III

4 IV

5 Zusammenfassung Die vorliegende Arbeit behandelt einen Schnittebenenalgorithmus zur Lösung von gemischt-ganzzahligen (linearen) 0/1-Optimierungsaufgaben: mit max / min {c T x : x K 0 K := {x IR n : Ax b, x 0, x j 1, j J, K 0 := {x K : x j {0, 1, j J. Der Ansatz zur Lösung solcher Probleme ist in dieser Arbeit der Lift & Project-Algorithmus. Er liefert P j (K) = conv(k {x IR n : x j {0, 1), j J. Durch mehrmaliges Anwenden dieses Algorithmus erhält man convk 0. Diese Resultate werden zunächst ad hoc bewiesen; anschließend wird gezeigt, daß sie Anwendungen der allgemeineren Theorie der Disjunktiven Programmierung sind. Diese Theorie liefert außerdem eine Beschreibung einzelner gültiger Ungleichungen und Facetten von P j (K) und von convk 0. Indem man solche Ungleichungen als Schnittebenen verwendet, erhält man den Lift & Project-Schnittebenenalgorithmus für gemischt-ganzzahlige 0/1-Probleme, den Hauptgegenstand dieser Arbeit. Zunächst wird die Grundform dieses Algorithmus formuliert. Für eine spezielle Variante kann ein Endlichkeitsbeweis geführt werden. Durch einige Erweiterungen kann die Leistungsfähigkeit des Algorithmus weiter verbessert werden. Zentraler Bestandteil dieser Arbeit ist die Implementierung des Lift & Project- Schnittebenenalgorithmus als Computerprogramm. Im vorliegenden Text werden Erläuterungen zu diesem Programm gegeben und die Rechenergebnisse vorgestellt, die in Testrechnungen anhand von Problembeispielen erzielt wurden. Der vollständige Quelltext des Programms ist abgedruckt.

6 VI

7 Inhaltsverzeichnis 1 Die Theorie des Verfahrens Die Problemstellung Bezeichnungen Projektion und Konvexifizierung Zusammenhang mit Disjunktiver Programmierung Disjunktive Programmierung Das fundamentale Prinzip der Disjunktiven Programmierung Die konvexe Hülle und Facetten einer Disjunktiven Menge Anwendung auf Lift & Project Disjunktive Programmierung und Projektion Anwendung auf Lift & Project Facielle Disjunktive Programmierung Anwendung auf Lift & Project Verschärfung der Schnitte Berechnung der verschärften Schnitte Anwendung auf Lift & Project Die praktische Realisierung Der Schnittebenenalgorithmus Grundform des Algorithmus VII

8 2.1.2 Normalisierungen Endliche Terminierung Schnitte aus der Basisinverse Cut lifting Verschärfung der Schnitte Zur Implementierung Beschreibung der Arbeitsweise des Programms Erläuterungen zum Programm Rechenergebnisse A Vermischtes 65 A.1 Alternativsätze A.2 Projektion eines Polyeders B Quelltext des Programms 67 B.1 Das Hauptprogramm B.1.1 main.c B.2 Das Modul für das Lift & Project-Verfahren B.2.1 lpc.inc B.2.2 lpc.c B.2.3 lpc0.c B.2.4 lpc1.c B.2.5 lpc2.c B.2.6 lpc3.c B.2.7 lpc4.c B.2.8 lpc5.c B.2.9 lpc6.c B.3 Weitere Dateien VIII

9 B.3.1 globals.inc B.3.2 globals.c B.3.3 Makefile IX

10 X

11 Kapitel 1 Die Theorie des Verfahrens 1.1 Die Problemstellung Aus linearen Optimierungsaufgaben, die in der Praxis effizient mit dem Simplexalgorithmus und in der Theorie in polynomialem Aufwand etwa mit der Ellipsoidmethode gelöst werden können, werden durch Hinzufügen von Ganzzahligkeitsbedingungen an alle oder einige Variablen NP-schwere Probleme. In dieser Arbeit behandeln wir speziell gemischt-ganzzahlige 0/1-Optimierungsaufgaben (0/1-MIPs) der allgemeinen Form max / min {c T x : x IR n, Ax b, x 0, x j {0, 1, j J. (1.1) Dabei sei A IR m n, b IR m, c IR n, J {1,..., n, p := J. Zur Lösung solcher Aufgaben haben sich die auf der Polyedertheorie basierenden Schnittebenenverfahren als sehr leistungsfähig erwiesen. In der vorliegenden Arbeit verwenden wir den Lift & Project-Schnittebenenalgorithmus, der von E. Balas, S. Ceria und G. Cornuéjols [1, 2] entwickelt wurde. Die dabei verwendeten Schnittebenen werden mit Hilfe der Theorie der Disjunktiven Programmierung hergeleitet, die das Werk von E. Balas [3, 4, 5, 6] ist. Sei K := {x IR n : Ax b, x 0, x j 1, j J, (1.2) K 0 := {x K : x j {0, 1, j J. (1.3) K 0 ist die Menge aller zulässigen Punkte von Problem (1.1), K ist die zulässige Menge der Standard-LP-Relaxierung von (1.1). 1

12 2 KAPITEL 1. DIE THEORIE DES VERFAHRENS Für theoretische Betrachtungen ist zunächst convk 0, die abgeschlossene konvexe Hülle von K 0, interessant. Könnte man diese vollständig beschreiben, könnte Problem (1.1) mit LP-Algorithmen wie dem Simplexalgorithmus gelöst werden. Dies ist in der Praxis natürlich nicht möglich; daher berechnet man nicht die gesamte konvexe Hülle, sondern benutzt nur geeignete gültige Ungleichungen bzw. Facetten als Schnittebenen an K. In der vorliegenden Arbeit werden wir sogenannte Lift & Project-Schnittebenen einsetzen, die aus den Ganzzahligkeitsbedingungen in Problem (1.1) abgeleitet werden und die durch Lösen von Linearen Programmen, welche im wesentlichen doppelt so groß wie Problem (1.1) sind, generiert werden können. Wir werden zunächst im theoretischen ersten Kapitel dieser Arbeit das Verfahren herleiten, das die Lift & Project-Schnittebenen liefert. Im praktischen zweiten Kapitel werden wir dieses Verfahren dann in einen Schnittebenenalgorithmus einbauen und diesen schließlich in einem Computerprogramm in konkreten praktischen Rechnungen erproben. Stillschweigend werden Grundkenntnisse über Polyedertheorie, lineare Optimierung und den Simplexalgorithmus vorausgesetzt [8, 9, 10] Bezeichnungen Wir definieren K = {x IR n : Ax b, x 0, x j 1, j J =: {x IR n : Ãx b (1.4) =: {x IR n : Âx ˆb, x 0 (1.5) mit à IRm+n+p n, b IR m+n+p,  IR m+p n, ˆb IR m+p. Sei S IR n eine beliebige Teilmenge. In dieser Arbeit verstehen wir unter convs die abgeschlossene konvexe Hülle von S, d. h. den Abschluß der Menge aller endlichen Konvexkombinationen von Punkten in S. Analog sei cones die abgeschlossene konische Hülle von S. Sei A IR m n eine Matrix. Mit A i (1 i m) werde die i-te Zeile von A bezeichnet, mit A j (1 j n) die j-te Spalte von A. 1.2 Projektion und Konvexifizierung In Abschnitt 1.2 wird der Lift & Project-Algorithmus vorgestellt. Er liefert das Polyeder P j (K), das in der gesamten Arbeit eine wichtige Rolle spielen wird. Wir

13 1.2. PROJEKTION UND KONVEXIFIZIERUNG 3 untersuchen einige Eigenschaften des Lift & Project-Algorithmus und von P j (K), die wir zunächst wie Balas, Ceria und Cornuéjols [1] mit technischen ad-hoc-beweisen ableiten möchten. Eines der Resultate ist eine Beschreibung der konvexen Hülle von K 0. In Abschnitt 1.3 werden wir den Lift & Project-Algorithmus dann in Zusammenhang mit der Theorie der Disjunktiven Programmierung bringen. Wir werden sehen, daß die allgemeinen Sätze der Disjunktiven Programmierung als Spezialfälle u. a. die Resultate von Abschnitt 1.2 liefern werden. Zusätzlich wird diese Theorie aber auch die Berechnung einzelner gültiger Ungleichungen und Facetten von P j (K) und von convk 0 ermöglichen. Dies wird der Ansatzpunkt sein, um im zweiten Kapitel dieser Arbeit einen Schnittebenenalgorithmus zur Lösung des 0/1-MIPs (1.1) bereitzustellen. Algorithmus (Lift & Project) (1) Wähle einen Index j J. (2) Multipliziere Ãx b mit (1 x j ) und x j : (1 x j ) (Ãx b) 0 x j (Ãx b) 0. (1.6) Das resultierende System ist nichtlinear. (3) Linearisierung: Ersetze x i x j, i = 1,..., n, i j durch y i und x 2 j durch x j. Nenne das resultierende Polyeder M j (K). (4) Projektion: Projiziere M j (K) auf den Teilraum der x-variablen. Nenne das resultierende Polyeder P j (K). Bemerkung (1) Die Linearisierung in Schritt (3) erzeugt u. a. auch die Ungleichungen y i 0, y i x i, i = 1,..., n, i j und y i x j, y i x i + x j 1, i J, i j. (2) Hat das System, das K beschreibt, m Ungleichungen und n Variablen, so hat das System, das M j (K) beschreibt, 2m Ungleichungen und 2n 1 Variablen. (3) Das Verfahren der Projektion eines Polyeders auf den Teilraum der x-variablen wird in Satz A.2.1 beschrieben. Der Lift & Project-Algorithmus liefert ein sinnvolles Ergebnis:

14 4 KAPITEL 1. DIE THEORIE DES VERFAHRENS Lemma Für j J ist K 0 P j (K) K. Beweis. (1) Sei x K 0. x erfüllt Ãx b und daher auch System (1.6). Wegen x j {0, 1 gilt x 2 j = x j. Die Linearisierung x i x j y i, i {1,..., n \ {j, x 2 j x j ist deshalb für x gültig: (x, y) M j (K). Daraus folgt: x P j (K). (2) Sei x P j (K), d. h. es existiert y, so daß (x, y) M j (K), d. h. à i y i + à jx j x j b 0 und i j à i x i à i y i à jx j (1 x j ) b 0. i i j Daraus folgt durch Addition: à i x i b 0, i d. h. x K. Der folgende Satz zeigt, daß das Lift & Project-Verfahren als Werkzeug zur Lösung von gemischt-ganzzahligen 0/1-Problemen wie (1.1) geeignet ist. Dieser Satz stellt somit die Grundlage für die weiteren Überlegungen in dieser Arbeit dar. Satz Für j J gilt: P j (K) = conv(k {x IR n : x j {0, 1). Beweis. Zeige: P j (K)! conv(k {x IR n : x j {0, 1). (1.7) (1) Annahme: K {x : x j = 0 = {. Dann existiert ε > 0, so daß x j ε 0 x K. Für jedes x, das System (1.6) erfüllt, gilt daher (1 x j )(x j ε) 0, d. h. x j x 2 j ε(1 x j ).

15 1.2. PROJEKTION UND KONVEXIFIZIERUNG 5 Ersetze x 2 j durch x j. Dann folgt 0 ε(1 x j ), d. h. x j 1, für alle (x, y) M j (K) bzw. für alle x P j (K); d. h. Mit Lemma folgt daraus Daraus folgt (1.7). P j (K) = P j (K) {x : x j = 1. P j (K) K {x : x j = 1 conv(k {x : x j = 1). (2) Annahme: K {x : x j = 1 = {. Dann existiert ε > 0, so daß x j + ε 1 x K. Für jedes x, das System (1.6) erfüllt, gilt daher Ersetze x 2 j durch x j. Dann folgt x j (x j + ε) x j, d. h. x j ε x j x 2 j. x j ε 0, d. h. x j 0, für alle (x, y) M j (K) bzw. für alle x P j (K); d. h. Mit Lemma folgt daraus Daraus folgt (1.7). P j (K) = P j (K) {x : x j = 0. P j (K) K {x : x j = 0 conv(k {x : x j = 0). (3) Sei jetzt also K {x : x j = 0 { und K {x : x j = 1 {. Sei α T x β eine gültige Ungleichung für conv(k {x : x j {0, 1). Weil α T x β gültig ist für K {x : x j = 0, existiert λ 0, so daß α T x + λx j β eine gültige Ungleichung für alle x K ist. (Die Schar der Hyperebenen {x : α T x + λx j = β entsteht aus der Hyperebene {x : α T x = β durch Drehung um {x : α T x = β {x : x j = 0. Da K {x : x j = 0 {, kann man mit einem geeigneten, endlichen λ 0 so weit drehen, daß der Halbraum {x : α T x + λx j β ganz K enthält.)

16 6 KAPITEL 1. DIE THEORIE DES VERFAHRENS Weil α T x β gültig ist für K {x : x j = 1, existiert µ 0, so daß α T x + µ(1 x j ) β eine gültige Ungleichung für alle x K ist. (Die Schar der Hyperebenen {x : α T x + µ(1 x j ) = β entsteht aus der Hyperebene {x : α T x = β durch Drehung um {x : α T x = β {x : x j = 1. Da K {x : x j = 1 {, kann man mit einem geeigneten, endlichen µ 0 so weit drehen, daß der Halbraum {x : α T x + µ(1 x j ) β ganz K enthält.) Es gilt also Daher ist α T x + λx j β 0 α T x + µ(1 x j ) β 0 x K. (1 x j )(α T x + λx j β) 0 x j (α T x + µ(1 x j ) β) 0 x System (1.6). Addition dieser Ungleichungen liefert α T x + (λ + µ)(1 x j )x j β 0 x System (1.6). Ersetze x 2 j durch x j : α T x β 0 (x, y) M j (K) bzw. x P j (K). Zeige: Daraus folgt P j (K) conv(k {x : x j {0, 1). P j (K)! conv(k {x IR n : x j {0, 1). (1.8) Sei x K {x : x j {0, 1. Definiere y i := x i x j, i j. Wegen x 2 j = x j ist (x, y) M j (K) und x P j (K). Dies gilt auch für endliche Konvexkombinationen solcher x. Daraus folgt (1.8). Bemerkung Wie die beiden soeben geführten Beweise zeigen, bewirken im Lift & Project-Algorithmus die Operationen Multiplikation mit x j bzw. mit (1 x j ), Ersetzen von x i x j durch y i und Projektion auf den Teilraum der x-variablen keine Änderung der Menge der zulässigen Punkte. Verantwortlich für die Einengung der Restriktionen ist lediglich die Substitution von x 2 j durch x j, falls die zugehörige Ganzzahligkeitsbedingung nicht redundant ist. Ganzzahlige Punkte werden nicht abgeschnitten, jedoch evtl. Punkte x mit 0 < x j < 1.

17 1.2. PROJEKTION UND KONVEXIFIZIERUNG 7 Der Lift & Project-Algorithmus kann auch mehrmals hintereinander ausgeführt werden: Definition Für t 2, i 1,..., i t J sei P i1,...,i t (K) := P it (P it 1 (... (P i1 (K))...)). Satz Für i 1,..., i t J paarweise verschieden gilt: P i1,...,i t (K) = conv(k {x IR n : x j {0, 1, j {i 1,..., i t ). Beweis. Sei o. B. d. A. J = {1,..., p und {i 1,..., i t = {1,..., t, t < p. F t := {x : x j {0, 1, j = 1,..., t. Zeige durch Induktion über t: P 1,...,t (K) = conv(k F t ). Induktionsanfang: t = 1: Satz Induktionsannahme: Gelte die Behauptung für 1,..., t 1. Induktionsschritt: Sei 2 t p. P 1,...,t (K) = P t (conv(k F t 1 )) (nach Induktionsannahme) = conv(conv(k F t 1 ) {x : x t {0, 1) (nach Satz 1.2.4) (conv(k F t 1 ) {x : x t = 0) = conv. (1.9) (conv(k F t 1 ) {x : x t = 1) Hilfsbehauptung: Sei S IR n und H := {x IR n : α T x = β eine Hyperebene, so daß α T x β x S. Dann gilt: (Beweis der Hilfsbehauptung: H conv(s) = conv(s H). x H conv(s) (α T x = β) (x = λ i y (i), λ i = 1, λ i > 0, y (i) S i T ) i T i T

18 8 KAPITEL 1. DIE THEORIE DES VERFAHRENS (T endliche Indexmenge). Es ist α T y (i) β i T n. V. α T x = β α T y (i) β i T α T y (i) = β i T y (i) S H i T. Daher gilt: Damit ist die Hilfsbehauptung bewiesen.) x H conv(s) x conv(s H). Wir wenden nun die Hilfsbehauptung und die Formel auf (1.9) an: conv(conv(s) conv(t )) = conv(s T ) P 1,...,t (K) = conv conv(k F t 1 {x : x t = 0) conv(k F t 1 {x : x t = 1) = conv(k F t 1 {x : x t {0, 1) = conv(k F t ). Induktionsschluß. Aus Satz kann man zwei wichtige Folgerungen ziehen. Die erste besagt, daß es nicht auf die Reihenfolge ankommt: Korollar Seien i, j J. P i (P j (K)) = P j (P i (K)) für i j. Die zweite Folgerung ist die angekündigte Charakterisierung der konvexen Hülle von K 0 : Korollar Sei J = {i 1,..., i J eine beliebige Anordnung von J. P i1,...,i J (K) = convk Zusammenhang mit Disjunktiver Programmierung In Abschnitt 1.3 werden einige Resultate aus der Theorie der Disjunktiven Programmierung vorgestellt. Wir folgen dabei im wesentlichen den Ausführungen von Balas

19 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 9 in dessen Veröffentlichungen [3, 4, 5, 6]. Gelegentlich werden jedoch die Akzente anders gesetzt und einige Beweise ausführlicher geführt. Es soll hier aber nicht um eine vollständige Darstellung dieser Theorie gehen, vielmehr sollen nur die Aspekte herausgearbeitet werden, die sich auf die Aufgabenstellung dieser Arbeit und die Ergebnisse von Abschnitt 1.2 anwenden lassen. Der Zusammenhang zwischen Disjunktiver Programmierung und dem Lift & Project- Verfahren, der bei Balas, Ceria und Cornuéjols [1, 2] nur angedeutet ist, wird in den Unterabschnitten Anwendung auf Lift & Project vollständig ausgeführt Disjunktive Programmierung Disjunktive Programmierung bedeutet lineare Optimierung über Disjunktive Mengen. Eine Disjunktive Menge ist eine Menge von Punkten, die Ungleichungen genügen, welche durch die elementaren logischen Operatoren ( oder, Disjunktion), ( und, Konjunktion) und ( nicht, Negation) miteinander verknüpft sind. Ein Disjunktives Programm ist ein Optimierungsproblem von der Form wobei F eine Disjunktive Menge ist. max / min{c T x : x F, Disjunktive Mengen können in verschiedenen Formen gegeben sein: Die Disjunktive Normalform besteht aus einer Disjunktion von Bedingungen F = {x : a i (x), wobei die a i (x) keine weiteren Disjunktionen enthalten. Die Konjunktive Normalform besteht aus einer Konjunktion von Bedingungen F = {x : b i (x), wobei die b i (x) keine weiteren Konjunktionen enthalten. Diese beiden Normalformen lassen sich durch logischen Kalkül ineinander überführen; alle Disjunktiven Mengen, die sich in eine der beiden Normalformen bringen lassen, nennt man Disjunktive Mengen in Regulärer Form. Gemischt-ganzzahlige 0/1-Probleme lassen sich auf verschiedene Weise als Disjunktive Programme schreiben. Wir werden in Abschnitt 1.3 einige Aspekte der Disjunktiven Programmierung zunächst von einem allgemeineren Standpunkt aus untersuchen. Durch Anwendung der dabei erzielten Resultate auf die spezielle Aufgabenstellung der gemischt-ganzzahligen 0/1-Programmierung werden sich die Sätze von Abschnitt 1.2 über den Lift & Project-Algorithmus als Folgerungen aus der Theorie der Disjunktiven Programmierung erweisen. Darüber hinaus wird diese Theorie eine weitere Methode liefern, die das Lift & Project-Verfahren praktischen Anwendungen zugänglich macht. i I i I

20 10 KAPITEL 1. DIE THEORIE DES VERFAHRENS Das fundamentale Prinzip der Disjunktiven Programmierung Wir betrachten zunächst eine Disjunktive Menge in Disjunktiver Normalform: F := {x IR n : (A h x b h, x 0). h Q Dabei sei Q eine beliebige Indexmenge, A h IR m h n, b h IR m h Q := {h Q : {x IR n : A h x b h, x 0 {. für h Q. Sei Der folgende grundlegende Satz beschreibt die Menge aller gültigen Ungleichungen für F. Satz (Fundamentales Prinzip der Disjunktiven Programmierung) Sei α IR n, β IR. Dann gilt: F {x IR n : α T x β (1.10) h Q u h IR m h : u h 0, α T u ht A h, β u ht b h. (1.11) Der Beweis benutzt den Alternativsatz A.1.2. Beweis. (1.10) {x : A h x b h, x 0 {x : α T x β h Q. Sei h Q beliebig und A := A h, b := b h. Die Behauptung des Satzes folgt dann aus: {x : Ax b, x 0 {x : α T x β Zu zeigen bleibt ( ): : Nach Voraussetzung existiert kein x 0 : Ax b, α T x > β. ( ) u 0 : α T u T A, β u T b. Wegen des Alternativsatzes A.1.2 (man beachte: h Q ) gibt es also ū 0, v > 0 : ū T A + v ( α T ) 0, ū T b + v ( β) 0. Mit u := ū/v ist dies äquivalent zu u 0 : α T u T A, β u T b. : Sei Ax b, x 0. Dann folgt: α T x u T Ax u T b β.

21 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 11 Bemerkung Eine äquivalente Formulierung von (1.11) ist: h Q u h IR m h, u h 0: α T j sup h Q (u ht A h ) j, j = 1,..., n, β inf h Q uht b h. (1.12) Wenn in F die Variablen x unbeschränkt sein dürfen, müssen für alle h Q die Ungleichungen α T u ht A h durch Gleichungen α T = u ht A h ersetzt werden (wie entsprechend im Alternativsatz A.1.2). Wegen Q Q bleibt die -Richtung richtig, wenn man Q durch Q ersetzt Die konvexe Hülle und Facetten einer Disjunktiven Menge Das fundamentale Prinzip der Disjunktiven Programmierung liefert unmittelbar eine erste Charakterisierung der konvexen Hülle der Disjunktiven Menge F. Um dies einfach aufschreiben zu können, führen wir den Begriff der Reversen Polare ein. Definition (Reverse Polare) Sei S IR n beliebig. Für β IR bezeichne die Reverse Polare von S. S # (β) := {α IRn : α T x β x S Aus dem fundamentalen Prinzip der Disjunktiven Programmierung folgt dann sofort: Korollar F # (β) = {α IRn : h Q u h IR m h : u h 0, α T u ht A h, β u ht b h. Korollar convf = {x IR n : α T x β (α, β) : α F # (β). Als nächstes interessieren wir uns für die Ungleichungen, die unter allen für F gültigen die stärksten sind, also für die Facetten der konvexen Hülle von F. Um diese beschreiben zu können, müssen wir die Reverse Polare genauer untersuchen, zunächst für eine beliebige Menge S IR n.

22 12 KAPITEL 1. DIE THEORIE DES VERFAHRENS Bemerkung (Eigenschaften der Reversen Polare) (1) (λs) # (β) = 1 λ S# (β). (2) S 1 S 2 S 1 # (β) S 2 # (β). (3) (S 1 S 2 ) # (β) = S 1 # (β) S 2 # (β). (4) S # (λβ) = λs# (β) für λ > 0. Beweis. Folgt unmittelbar aus Definition Satz Sei β IR. (1) Sei β 0. Dann ist S # (β) {. (2) Sei β > 0. Dann gilt: 0 convs S # (β) = {. Beweis. (1) β 0: Falls S = {, ist S # (β) = IRn {. Falls S {, ist S S # (β), da xt x 0 β x S. (2) β > 0: Falls 0 convs, ist S # (β) = {. Denn wäre α S# (β), wäre 0 = αt 0 β. Falls 0 / convs, existiert eine Hyperebene α T x = β, die 0 von convs trennt, d. h. α T x β x convs (und α T 0 = 0 < β). Daraus folgt: α S # (β) und somit S # (β) {. Sei ab jetzt S IR n eine Menge, deren konvexe Hülle polyedrisch und spitz ist. Für die Disjunktive Menge F = {x IR n : (A h x b h, x 0) ist dies der Fall, wenn Q endlich ist. h Q für jedes β IR poly- Satz Wenn convs polyedrisch ist, so ist auch S # (β) edrisch. Genauer gilt: Sei convs = conv(v ) + cone(e) mit V = {v 1,..., v p (Ecken), E = {e 1,..., e q (Extremalen). Dann ist S # (β) = {α IRn : α T v j β, j = 1,..., p, α T e i 0, i = 1,..., q.

23 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 13 Beweis. Sei α IR n. Wir zeigen: α T x β x S α T v j β, j = 1,..., p, α T e i 0, i = 1,..., q. : Für jedes x S µ i 0, i = 1,..., q, λ j 0, j = 1,..., p, j λ j = 1, so daß x = j λ j v j + i µ i e i. Daher ist α T x = j λ j α T v j + i µ i α T e i j λ j β + i µ i 0 = β. : Sei α T x β x S. Insbesondere α T v j β und α T (v j + µe i ) β für µ > 0, j = 1,..., p, i = 1,..., q. Daraus folgt α T v j β, j = 1,..., p, α T e i 0, i = 1,..., q. Als nächstes bilden wir die Reverse Polare der Reversen Polare von S. Satz Sei S # (β) {. Dann ist S ## (β) = convs + cones, falls β > 0, cones, falls β = 0, conv(s {0), falls β < 0. Beweis. Sei wie in Satz S ## (β) = {x IR n : x T y β y S # (β). convs = conv({v 1,..., v p ) + cone({e 1,..., e q ). Dann ist S # (β) = {y IR n : (v 1,..., v p, e 1,..., e q ) T y (β,..., β, 0,..., 0) T =: {y : Dy d.

24 14 KAPITEL 1. DIE THEORIE DES VERFAHRENS Da S # (β) { n. V., gilt nach dem fundamentalen Prinzip der Disjunktiven Programmierung (man beachte auch Bemerkung 1.3.2): x S ## (β) x T y β y S # (β) u =: (σ 1,..., σ p, θ 1,..., θ q ) T 0 : x T = u T D, β u T d σ j 0, j = 1,..., p, θ i 0, i = 1,..., q : x = j σ j v j + i θ i e i, β j βσ j. Wegen Satz sind mit convs auch S # (β) Menge aller x IR n, so daß σ j 0, j = 1,..., p, θ i 0, i = 1,..., q Dies ist gleichbedeutend mit S ## (β) = : x = j und S## (β) polyedrisch. Daher ist S ## (β) die σ j v j + i θ i e i, j σ j convs + cones, falls β > 0, cones, falls β = 0, conv(s {0), falls β < 0. 1, β > 0 0, β = 0 1, β < 0. Korollar convs = S ## (1) S ## ( 1). Beweis. Aus dem Beweis von Satz folgt, daß j σ j = 1 mit x S ## (1) S ## ( 1) einhergeht. Das dreimalige Bilden der Reversen Polare ergibt nichts neues mehr: Satz S ### (β) = S # (β). Beweis. Sei β > 0 und 0 convs. Aus Satz folgt: S # (β) = {. Daher ist S ## (β) = IR n und S ### (β) = { = S # (β).

25 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 15 Sei β > 0 und 0 / convs. Wegen Satz ist S # (β) dann: {. Aus Satz folgt S ### (β) = (convs + cones) # (β) = {y IR n : y T x β x convs + cones ( ) = {y IR n : y T x β x S = S # (β). Sei β = 0. Wegen Satz ist S # (β) {. Aus Satz folgt dann: S ### (β) = (cones) # (β) = {y IR n : y T x β x cones ( ) = {y IR n : y T x β x S = S # (β). Sei β < 0. Wegen Satz ist S # (β) {. Aus Satz folgt dann: S ### (β) = (conv(s {0)) # (β) = {y IR n : y T x β x conv(s {0) ( ) = {y IR n : y T x β x S = S # (β). ( ) rechnet man jeweils leicht nach. Sei ab jetzt convs ein volldimensionales, spitzes Polyeder. Laut Satz ist dann ebenfalls ein volldimensionales, spitzes Polyeder. S ## (β) Wir kommen nun zur Beschreibung der Facetten von convs. Bemerkung Bekanntlich definiert eine Ungleichung π T x π 0 eine Facette eines Polyeders P genau dann, wenn (1) π T x π 0 x P und (2) π T x = π 0 für genau dim P affin unabhängige Punkte x P. Satz Sei dim S = n und β 0. Dann definiert α T x β eine Facette von genau dann, wenn α 0 eine Ecke von S # (β) ist. S ## (β) Beweis. Sei α 0. Sei S ## (β) = conv(v ) + cone(e) mit V = {Ecken und E = {Extremalen.

26 16 KAPITEL 1. DIE THEORIE DES VERFAHRENS (1) α ist Ecke von S # (β) genau dann, wenn α S # (β) = S### (β) = {y IR n : y T v β v V, y T e 0 e E (vgl. Satz 1.3.8), und y = α erfüllt ein Teilsystem vom Rang n des Systems, das S # (β) definiert, mit Gleichheit; wegen der Rangbedingung und α 0 ist dieses Teilsystem inhomogen, d. h. mindestens ein RHS-Koeffizient ist β. (2) α T x β Facette von S ## (β) genau dann, wenn α T x β x S ## (β), d. h. α S### (β) = S # (β), und α T x = β für genau n affin unabhängige Punkte von S ## (β) ; d. h. αt v = β für r Ecken v V und α T e = 0 für s Extremalen e E mit r + s n, so daß das System dieser Gleichungen den Rang n hat. Wegen affiner Unabhängigkeit und α 0 muß r 1 sein. (1) (2). Satz Sei dim S = n und β 0. Dann definiert die Ungleichung α T x β eine Facette von convs genau dann, wenn sie eine Facette von S ## (β) definiert. Beweis. (1) Wie man leicht nachrechnet, enthält der Halbraum {x : α T x β die Menge convs genau dann, wenn er für β > 0 die Menge convs + cones enthält bzw. wenn er für β < 0 die Menge conv(s {0) enthält. In beiden Fällen ist nach Satz die Ungleichung α T x β gültig x convs genau dann, wenn sie gültig x S ## (β) ist. (2) Zu zeigen bleibt: {x convs : α T x = β! = {x S ## (β) : Wegen Satz ist convs S## (β). : Indirekt: Sei y S ## (β) \ convs mit αt y = β. Satz und eine kurze Rechnung zeigen: : α T x = β. u convs, λ IR : y = λu mit { λ > 1 für β > 0 1 > λ > 0 für β < 0. Dann gilt in beiden Fällen: α T y = β α T u = 1 λ αt y = 1 β < β für u convs S## (β) λ. Das ist ein Widerspruch zu α T x β x S ## (β).

27 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 17 Aus (1) und (2) folgt die Behauptung. Somit haben wir alle Hilfsmittel bereitgestellt, um jetzt die Facetten einer Disjunktiven Menge charakterisieren zu können. Satz (Facetten einer Disjunktiven Menge) Sei Q endlich und F := {x IR n : (A h x b h, x 0) h Q eine volldimensionale Disjunktive Menge. Dann gilt: α T x β mit β 0 definiert eine Facette von convf genau dann, wenn α 0 eine Ecke von F # (β) ist. Beweis. Man wende Satz und Satz auf F an. Bisher haben wir nur die Facetten von volldimensionalen Disjunktiven Mengen beschrieben. Die folgende Bemerkung stellt den allgemeinen Fall dar. Bemerkung Sei F die oben definierte Disjunktive Menge und β IR. Bezeichne linf die lineare Hülle von F, afff die affine Hülle von F, L den Linealitätsraum von F # (β), d. h. den größten linearen Unterraum des Rezessionskegels von F # (β), und L das orthogonale Komplement von L. Diese Mengen haben die folgenden Eigenschaften: Wenn F # (β) {, ist linf = L. dim F ## (β) + dim L = n. { dim F ## dim F, falls 0 afff (β) = (dim F ) + 1, falls 0 / afff. Die niedrigst-dimensionalen Seitenflächen von F # (β) n dim F ## (β). sind die mit der Dimension Wenn dim F = n, ist dim F ## (β) = n und L = linf = IR n, also L = {0. Sei d := dim F ## (β) = n dim L = dim L. Dann gilt: Sei β 0. α T x β definiert eine Facette von F ## (β) wenn α 0 eine Ecke von F # (β) L ist. und α linf genau dann, Sei 0 afff. Dann ist dim F = d, und es gilt: Falls β 0, definiert α T x β eine Facette von convf genau dann, wenn es eine Facette von F ## (β) definiert.

28 18 KAPITEL 1. DIE THEORIE DES VERFAHRENS Sei 0 / afff. Dann ist dim F = d 1. Die Facetten von convf sind (d 2)-dimensionale Seitenflächen, die Facetten von F ## (β) dagegen (d 1)-dimensional. Die Ecken von F # (β) L korrespondieren zu den niedrigst-dimensionalen Seitenflächen α + L von F # (β). Falls β = 0, muß man statt der Ecken die Extremalen von F # (β) L nehmen. Beweis. Siehe [4]. Für volldimensionales F sind diese Resultate identisch mit den Sätzen und Anwendung auf Lift & Project Wir betrachten nun wieder K := {x IR n : Ax b, x 0, x j 1, j J := {x IR n : Âx ˆb, x 0 := {x IR n : Ãx b, die zulässige Menge der LP-Relaxierung des 0/1-MIPs (1.1). Sei j J. Mit den Polyedern P 1 := K {x IR n : x j = 0, P 2 := K {x IR n : x j = 1 erhalten wir eine Disjunktive Menge in Disjunktiver Normalform: Âx ˆb Âx ˆb P := P 1 P 2 = {x IR n : e T j x 0 e T j x 0 e T j x 1 e T j x 1 x 0 x 0 (e j sei dabei der j-te Einheitsvektor im IR n.). Wenn P 1, P 2 {, können wir das fundamentale Prinzip der Disjunktiven Programmierung anwenden. Nach Korollar ist für β IR P # (β) = { α IRn : û, u + 0, u 0, ˆv, v 0 +, v0 0 : α T û T Â + u + 0 e T j u 0 e T j, β û Tˆb + u u 0 0, α T ˆv T Â + v 0 + e T j v0 e T j, β ˆv Tˆb + v v0 1. Ersetzen wir nun u 0 := u + 0 u 0, v 0 := v + 0 v 0, so erhalten wir zwei Variablen u 0, v 0 ohne Vorzeichenbeschränkung anstatt der vier nichtnegativen Variablen

29 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 19 u + 0, u 0, v 0 +, v0. Außerdem können wir die Ungleichungen mit α durch Einführen von Schlupfvariablen u s, v s IR n, u s, v s 0 zu Gleichungen machen. Wir definieren ( ) ( ) û ˆv u :=, v := u s v s und beachten gleichzeitig, daß Dann folgt: Ã = ( Â E n ). P # (β) = { α IRn : u, v 0, u 0, v 0 : α T u T Ã u 0 e T j = 0, u T b β, α T v T Ã v 0 e T j = 0, v T b + v0 β. Die Reversen Polaren zu allen β IR fassen wir nun zusammen: Laut Satz und Korollar ist P j (K) = convp Pj (K) (β) := P # (β), Pj (K) := Pj (K) (β). β IR = {x IR n : α T x β (α, β) : α P # (β) = {x IR n : α T x β (α, β) P j (K). Unter Berücksichtigung von Satz erhalten wir damit das folgende Resultat, einen der wichtigsten Sätze dieser Arbeit. Er wird später bei der praktischen Realisierung die entscheidende Rolle spielen, denn wir werden die Ungleichungen und insbesondere die Facetten, die dieser Satz liefert, als Schnittebenen verwenden. Satz (Generieren von Schnitten) Sei K {x : x j = 0 { und K {x : x j = 1 {. P j (K) = {x IR n : α T x β (α, β) P j (K). Dabei sei P j (K) := { (α, β) IR n+1 : u, v IR m+n+p, u 0, v 0 IR : α T u T Ã u 0 e T j = 0 α T v T Ã v 0 e T j = 0 u T b β v T b +v0 β u, v 0.

30 20 KAPITEL 1. DIE THEORIE DES VERFAHRENS (e j sei dabei der j-te Einheitsvektor im IR n.) Falls K ein volldimensionales Polyeder ist, dann definiert für jede Konstante β 0 0 die Ungleichung α T x β 0 eine Facette von P j (K) genau dann, wenn α 0 eine Ecke von P j (K) (β0 ) ist, dem Polyeder, das man aus P j (K) durch Setzen von β = β 0 erhält Disjunktive Programmierung und Projektion In diesem Unterabschnitt wird eine weitere Charakterisierung der konvexen Hülle einer Disjunktiven Menge in Disjunktiver Normalform bewiesen. Der Beweis verwendet die Technik der Projektion von Polyedern aus Satz A.2.1 und wieder das fundamentale Prinzip der Disjunktiven Programmierung Satz Sei die Vereinigung der Polyeder F := P i i Q P i := {x IR n : A i x b i, i Q mit A i IR m i n, b i IR m i, i Q, Q beliebige Indexmenge; und sei Q := {i Q : P i {. Sei S(Q ) die Menge aller x IR n, für die es (y i, y i 0) IR n+1, i Q gibt mit Dann ist convf = S(Q ). x y i i Q = 0 A i y i b i y0 i 0 y i 0 0 i Q y i 0 = 1. i Q (1.13) Beweis. Bezeichne P die Menge aller x IR n, (y i, y0) i IR n+1, i Q, die System (1.13) erfüllen. Dann ist S(Q ) die Projektion von P auf den Teilraum der x-variablen. Diese Projektion erhält man mit der Technik aus Satz A.2.1. Sei dafür w := (α +T, α T, α + 0, α 0, u it, u i 0 (i Q ) ) T 0

31 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 21 ein Vektor aus Variablen, so daß jede Komponente einer Ungleichung von System (1.13) zugeordnet ist: Ungleichungen von System (1.13) zug. Variablen E n x i Q E ny i 0 α + 0 E n x + i Q E ny i 0 α 0 i Q 1 yi 0 1 α i Q 1 yi 0 1 α 0 0 bzw. zusammengefaßt: A i y i b i y i 0 0 u i 0 1 y i 0 0 u i 0 0 i Q Ãx + By b w 0. Wir definieren nun den polyedrischen Kegel W := {w 0 : w T B = 0, d. h. W ist die Menge aller α +, α, α + 0, α 0, u i, u i 0 0, i Q mit α +T E n + α T E n + u it A i = 0 α α 0 1 u it b i + u i 0 1 = 0 i Q. Ersetzt man nun α := α + α IR n und α 0 := α + 0 α 0 IR und macht durch Weglassen der Schlupfvariablen u i 0 die zweite Gleichung zu einer Ungleichung, so folgt: W ist die Menge aller (α, α 0 ) IR n+1, u i IR m i, i Q mit α T + u it A i = 0 α 0 u it b i 0 u i 0 i Q. Die Projektion von P auf den Teilraum der x-variablen ist dann laut Satz A.2.1 S(Q ) = {x : w T Ãx w T b w W = {x : (α +T E n α T E n )x α + 0 α 0 w W = {x : α T x α 0 (α, α 0 ) : i Q u i 0 : α T = u it A i, α 0 u it b i = convf nach Korollar 1.3.5, welches unmittelbar aus dem fundamentalen Prinzip der Disjunktiven Programmierung folgt (man beachte Bemerkung 1.3.2). In der Praxis weiß man häufig nicht, welche P i nichtleer sind. Diese Schwierigkeit wird irrelevant, wenn das Kriterium von Satz erfüllt ist.

32 22 KAPITEL 1. DIE THEORIE DES VERFAHRENS Werde S(Q) durch System (1.13) mit Q anstelle von Q definiert. Betrachte die Kegel C i := {x IR n : A i x 0, i Q. Für i Q ist C i der Rezessionskegel von P i. Außerdem benutzen wir die folgende übliche Schreibweise: S i := {x IR n : x i S i, i M : x = x i i M für beliebige S i IR n, i M, M beliebige Indexmenge. Satz S(Q) = S(Q ), wenn folgende Regularitätsbedingung erfüllt ist: C k i M i Q C i k Q \ Q. (1.14) Beweis. Für k Q \ Q existiert kein y mit A k y b k. Daher gilt: A k y b k y 0 0, y 0 0 = y 0 = 0, y C k. (1) Sei x S(Q), d. h. (y i, y0), i i Q, so daß x = y i = y i + y k, i Q i Q k Q\Q A i y i b i y i 0 0, y i 0 0 i Q, A k y k b k y0 k 0, y0 k 0 = y0 k = 0, y k C k k Q \ Q, 1 = y0 i = y0. i i Q i Q Wegen der Regularitätsbedingung existieren ỹ i C i, i Q, so daß y k = ỹ i. k Q\Q i Q Sei Dann folgt: d. h. x S(Q ). ȳ i := y i + ỹ i, ȳ i 0 := y i 0, i Q. x = i Q y i + i Q ỹ i = i Q ȳ i, A i ȳ i b i ȳ0 i = A i ỹ i + A i y i b i y0 i 0, ȳ0 i 0 i Q, ȳ0 i = y0 i = 1, i Q i Q

33 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 23 (2) Sei x S(Q ), d. h. es gibt (y i, y i 0), i Q mit x = i Q y i, i Q y i 0 = 1, A i y i b i y i 0 0, y i 0 0 i Q. Definiere zusätzlich y i := 0, y i 0 := 0, i Q \ Q. Dann gilt: x = y i, y0 i = 1, i Q i Q d. h. x S(Q). A i y i b i y i 0 0, y i 0 0 i Q, Anwendung auf Lift & Project Sei wieder j J, Q := {1, 2 und P 1 := K {x IR n : x j = 0 = {x IR n : P 2 := K {x IR n : x j = 1 = {x IR n : à e T j e T j à e T j e T j x x b 0 0 b 1 1,. Dann ist S(Q) die Menge aller x IR n, für die y, z IR n, y 0, z 0 IR existieren mit x y z = 0, y 0 + z 0 = 1, y 0, z 0 0, (1.15) Ãy by 0 0, e T j y 1 y 0 0, e T j y + 1 y 0 0, Ãz bz 0 0, e T j z 0 z 0 0, e T j z + 0 z 0 0. Falls mindestens ein P i {, ist die Regularitätsbedingung erfüllt, denn die Matrizen, die P 1 und P 2 beschreiben, sind gleich. Dann gilt: S(Q) = S(Q ) = conv(p 1 P 2 ) = conv(k {x IR n : x j {0, 1). Dieses Resultat vergleichen wir nun mit dem Ergebnis des Lift & Project-Algorithmus 1.2.1:

34 24 KAPITEL 1. DIE THEORIE DES VERFAHRENS Nach Schritt (2) des Algorithmus hat man folgendes System: Ãx b Ãxx j + bx j 0, Ãxx j bx j 0. Die Linearisierung in Schritt (3) mit y i := x i x j, i j, y j := x j = x 2 j liefert: Ãx b Ãy + bx j 0, Ãy bx j 0. Definiert man z := x y, z 0 := 1 x j, y 0 := x j, so erhält man: Ãz bz 0 0, z 0 0, Ãy by 0 0, y 0 0, y 0 + z 0 = 1, x y z = 0, z j = 0, y j = y 0. Projektion auf den Teilraum der x-variablen ergibt einerseits in Schritt (4) des Algorithmus das Polyeder P j (K); andererseits erhält man genau das Polyeder S(Q) aus Formel (1.15). Also ist P j (K) = S(Q) = conv(k {x IR n : x j {0, 1). Damit haben wir Satz aus Abschnitt 1.2 mit den Hilfsmitteln der Disjunktiven Programmierung hergeleitet Facielle Disjunktive Programmierung In diesem Unterabschnitt betrachten wir Disjunktive Mengen in Konjunktiver Normalform: F := {x F 0 : d T i x d i0 mit F 0 := {x IR n : Ax b, x 0, (1.16) j S i Q j wobei A IR m n, b IR m, d i IR n, d i0 IR, i Q j, j S für beliebige Indexmengen S und Q j, j S. Wir werden nun untersuchen, welche Resultate man erzielt, wenn man F sequentiell konvexifiziert, d. h. wenn man schrittweise jeweils eine der Disjunktionen j S nimmt und zu F 0 und allen in den bisherigen Schritten berechneten Ungleichungen bezüglich dieser einen Disjunktion die konvexe Hülle bildet. In der Tat führt für gewisse Disjunktive Mengen der Form (1.16) dieses Vorgehen nach S Schritten zur konvexen Hülle von F. Diese Disjunktiven Mengen müssen u. a. die folgende Eigenschaft haben:

35 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 25 Definition Eine Disjunktive Menge F der Form (1.16) heißt faciell, falls für alle i Q j, j S F 0 {x : d T i x d i0 eine Seite von F 0 ist. Bemerkung F ist faciell genau dann, wenn F 0 {x : d T i x d i0 i Q j, j S. Nun beweisen wir einen technischen Hilfssatz, der später im Beweis des Hauptsatzes dieses Unterabschnittes verwendet wird. Lemma Seien P 1,..., P r Polytope und P := r h=1 P h. Sei H + := {x IR n : d T i x d i0 ein beliebiger Halbraum und H := {x IR n : d T i x d i0. Falls P H +, dann gilt: H convp = conv(h P ). Beweis. : Wegen H P H convp ist conv(h P ) conv(h convp ) = H convp. : Für H convp = { ist nichts zu zeigen. Sei also H convp {. Seien u 1,..., u p die Ecken aller Polytope P h, h = 1,..., r. Dann ist p < und Aus folgt und r {Ecken von convp {Ecken von P h = {u 1,..., u p. h=1 p x = λ k u k mit k=1 Weiterhin folgt aus P H + : x H convp d T i x d i0 p λ k = 1, λ k 0, k = 1,..., p. k=1 d T i u k d i0, k = 1,..., p.

36 26 KAPITEL 1. DIE THEORIE DES VERFAHRENS Annahme: Es existiert k {1,..., p mit λ k > 0 und d T i u k < d i0. Dann folgt: p p p d T i x = d T i ( λ k u k ) = λ k d T i u k < λ k d i0 = d i0. k=1 k=1 k=1 Widerspruch! Also gilt für alle k {1,..., p: λ k > 0 = d T i u k d i0. Daher ist x conv{u k {Ecken von P : d T i u k d i0 = conv(h P ) und damit H convp conv(h P ). Lemma Seien S 1, S 2 IR n beliebig. conv(convs 1 convs 2 ) = conv(s 1 S 2 ). Beweis. Klar. Damit kommen wir jetzt zum angekündigten Hauptsatz. Satz (Sequentielle Konvexifizierung) Sei F := {x F 0 : d T i x d i0 mit F 0 := {x IR n : Ax b, x 0. j S i Q j Sei S = {j 1,..., j S eine beliebige Anordnung von S. Definiere iterativ: F t := conv (F t 1 {x : d T k x d k0 ), t = 1,..., S. k Q jt Falls F faciell und F 0 beschränkt ist, gilt: F S = convf. Beweis. Zeige durch Induktion über t: F t! = conv{x F 0 : t r=1 i Q jr d T i x d i0, t = 1,..., S.

37 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 27 Induktionsanfang: t = 1: F 1 = conv (F 0 {x : d T k x d k0 ) k Q j1 = conv{x F 0 : d T i x d i0. i Q j1 Induktionsannahme: Gelte die Behauptung für 1,..., t. Induktionsschritt: Man benutze die Induktionsannahme, Lemma und Lemma : F t+1 = conv (F t {x : d T k x d k0 ) k Q jt+1 = conv ({x : d T k x d k0 conv{x F 0 : k Q jt+1 = conv conv({x : d T k x d k0 {x F 0 : k Q jt+1 = conv ({x : d T k x d k0 {x F 0 : k Q jt+1 = conv(( {x : d T k x d k0 ) {x F 0 : k Q jt+1 = conv{x F 0 : t+1 r=1 i Q jr d T i x d i0. t r=1 t r=1 t r=1 t r=1 i Q jr d T i x d i0 ) i Q jr d T i x d i0 ) i Q jr d T i x d i0 ) i Q jr d T i x d i0 ) Lemma kann angewendet werden, weil F faciell und F 0 beschränkt ist. Induktionsschluß Anwendung auf Lift & Project Schreiben wir nun die zulässige Menge des 0/1-MIPs (1.1) als Disjunktive Menge in Konjunktiver Normalform: K 0 = {x K 0 : ( x j 0 x j 1) mit j J K 0 := {x IR n : Ax b, x 0, x j 1, j J = K. (Die Bezeichnungen K und K 0 übernehmen wir aus den Formeln (1.2) und (1.3); man beachte, daß sie nicht genau mit denen des vorangegangenen Unterabschnittes übereinstimmen.)

38 28 KAPITEL 1. DIE THEORIE DES VERFAHRENS K 0 ist faciell, denn für alle j J gilt: K 0 {x : x j 0 und K 0 {x : x j 1 (Bemerkung ). Sei J = {j 1,..., j J eine beliebige Anordnung von J. Sei für t = 1,..., J K t := conv((k t 1 {x : x jt 0) (K t 1 {x : x jt 1)) = P jt (K t 1 ) = P j1,...,j t (K 0 ). Falls K 0 beschränkt ist, gilt nach Satz P j1,...,j J (K 0 ) = K J = convk 0. Dies ist die Aussage von Korollar aus Abschnitt 1.2, das sich damit als ein Ergebnis der Faciellen Disjunktiven Programmierung erweist Verschärfung der Schnitte Sei wie oben eine Disjunktive Menge in Disjunktiver Normalform gegeben: F := {x IR n : (A i x b i, x 0) i Q mit A i IR m i n, b i IR m i, i Q und endlicher Indexmenge Q := {1,..., q. Wir machen nun die zusätzliche Annahme, daß die A i x durch a i 0 IR m i, i Q nach unten beschränkt sind: A i x a i 0 mit b i a i 0, i Q. Bei der bisherigen Herleitung von Schnittebenen aus Disjunktionen wurde immer nur die Ganzzahligkeitsbedingung an eine Variable benutzt. Unter Hinzunahme der anderen Ganzzahligkeitsbedingungen können nun die Schnitte weiter verschärft werden. Nehmen wir also an, daß Sei J F := {1,..., n \ J I. x j ganzzahlig für j J I {1,..., n. Insgesamt betrachten wir also die drei Bedingungen: A i x a i 0, i Q, (1.17)

39 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 29 (A i x b i, x 0), (1.18) i Q x j ganzzahlig, j J I. (1.19) Im folgenden benutzen wir die Menge (sie ist ein Monoid) M := {m IR q : m i 0, m i ganzzahlig, i Q. Lemma Seien m j := (m ij ) i Q M, j J I gegeben. Für jedes x IR n, x 0, das (1.19) erfüllt, gilt entweder oder i Q i Q i Q j J I m ij x j = 0 (1.20) j J I m ij x j 1. (1.21) Beweis. Annahme: Die Aussage ist falsch, d. h. es existiert x 0 mit (1.19) und m ij x j < 0. i Q j J I Aus der Definition von M folgt aber m ij 0 j J I. Da x 0, gilt dann Widerspruch! i Q m ij x j 0. j J I i Q Der folgende Satz liefert das generelle Resultat zur Verschärfung von Schnitten. Satz (Verschärfung von Schnitten) Jedes x IR n, das (1.17), (1.18) und (1.19) erfüllt, erfüllt auch die Ungleichung mit γ j = inf m M γ 0 = min i Q θit b i für Vektoren θ i 0, i Q. n γ j x j γ 0 j=1 max i Q θit (A i j + m i (b i a i 0)), max i Q θit A i j, j J I j J F

40 30 KAPITEL 1. DIE THEORIE DES VERFAHRENS Beweis. Erfülle x (1.17), (1.18) und (1.19). Hilfsbehauptung: x erfüllt auch ( (A i j + m ij (b i a i 0))x j + A i jx j b i, x 0) (1.22) i Q j J I j J F mit beliebigen m j := (m ij ) i Q M, j J I, bzw. n ( A i jx j + (b i a i 0) m ij x j b i, x 0). (1.23) i Q j=1 j J I Nach Lemma gilt entweder (1.20) oder (1.21). Mit (1.20) ist (1.23) identisch mit (1.18). Mit (1.21) existiert k Q, λ 0, so daß Aus (1.17) folgt dann: n A k jx n j a k 0 = j=1 j=1 j J I m kj x j = 1 + λ. A k jx j a k 0 λ(b k a k {{ 0) = 0 n A k jx j + (b k a k 0)(1 + λ) b k. j=1 Das ist die k-te Ungleichung von (1.23). Damit ist die Hilfsbehauptung bewiesen. Auf (1.22) wenden wir jetzt das fundamentale Prinzip der Disjunktiven Programmierung an: Wenn θ i 0, i Q existieren mit γ j = γ 0 = min i Q θit b i, max i Q θit (A i j + m ij (b i a i 0)), max i Q θit A i j, j J I j J F dann wird die Ungleichung von x erfüllt. n γ j x j γ 0 j=1 In der ersten Zeile der Definition von γ j kann noch inf mj M gebildet werden, da die m j M, j J I beliebig gewählt wurden. Daraus ergibt sich die Behauptung. Bemerkung Die in Satz berechnete Ungleichung γ T x γ 0 ist für alle Punkte x F mit ganzzahligen J I -Komponenten gültig, da ja die Bedingungen (1.18) und (1.19) zugrunde gelegt wurden. Sie ist ist jedoch durch die zusätzliche Einbeziehung von Bedingung (1.19) stärker als die entsprechende, mit denselben Multiplikatoren θ i, i Q nur nach dem fundamentalen Prinzip der Disjunktiven Programmierung gewonnene Ungleichung

41 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 31 α T x β (α j = max i Q θ it A i j, j = 1,..., n, β = min i Q θ it b i ): Denn wegen 0 M ist γ α; außerdem ist γ 0 = β. Für ein x 0 gilt dann γ 0 γ T x β α T x, d. h. x wird von (γ, γ 0 ) stärker abgeschnitten als von (α, β). Man kann also von einer Verschärfung der Ungleichung bzw. des Schnittes sprechen. Im nächsten Unterabschnitt werden wir einen Algorithmus bereitstellen, mit dem die γ j, j J I aus Satz berechnet werden können Berechnung der verschärften Schnitte Sei j J I fest. Wir möchten nun den verschärften Koeffizienten γ j berechnen. Zur Abkürzung benutzen wir die Schreibweisen: (alles Skalare). Dann gilt: α i j := θ it A i j, µ i := θ it (b i a i 0) 0, i Q γ j = inf m M max i Q θit (A i j + m i (b i a i 0)) = inf m M max i Q αi j + µ i m i. Die Aufgabe lautet jetzt also: Minimiere über m = (m i ) i Q M. max i Q αi j + µ i m i (1.24) Algorithmus Voraussetzung: µ i > 0, i Q. Berechne g := αj i / 1 (1.25) i Q µ i i Q µ i und m i := 1 µ i (g α i j), i Q. (1.26) Sei und m i := m i, i Q (1.27) k := i Q m i. (1.28)

42 32 KAPITEL 1. DIE THEORIE DES VERFAHRENS Für j = 1,..., k: Berechne und setze α s j + µ s (m s + 1) = min i Q αi j + µ i (m i + 1), (1.29) m s := m s + 1. (1.30) Satz Algorithmus findet ein optimales m = (m i ) i Q M in k Schritten mit k = i Q m i q 1. (1.31) Beweis. Minimiere (1.24) zunächst über alle m IR q mit i Q m i 0. Notwendige Bedingungen für die Minimalität von m sind und m i = 0 (1.32) i Q α i j + µ i m i = g i Q. (1.33) Denn jedes m, das (1.32) oder (1.33) verletzt, kann verbessert werden. (1.33) µ i m i = g α i j, i Q (1.26). (1.32) 0 = i Q Aus dem Abrunden (1.27) folgt: 1 (g α µ j) i = g 1 αj i (1.25). i i Q µ i i Q µ i m i 0. k = m i = m i = m i m i m i m i < q. {{ i Q i Q i Q i Q i Q <1 Daraus folgt (1.31): k q 1. Somit ist m M nach Terminierung von Algorithmus : m i = k vor Schritt 1. i Q m i wird um 1 erhöht in Schritt j = 1,..., k. = i Q m i i Q = 0 nach Schritt k. Optimalitätsbeweis: Annahme: Sei m M besser als das Ergebnis m M von Algorithmus : α r j + µ r m r = max i Q αi j + µ i m i > max i Q αi j + µ i m i.

43 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 33 Daraus folgt m r 1 m r und i Q m i 0 = i Q m i. Also existiert ein p Q \ {r, so daß m p m p + 1 und α r j + µ r m r > α p j + µ p m p α p j + µ p ( m p + 1) (1.34) α p j + µ p ( m p + 1) > α p j + µ p m p = g = αj r + µ r m r αj r + µ r m r. Daher ist m r > m r. Also wurde in einer Iteration m r 1 ( m r ) zu m r erhöht, d. h. in diesem Schritt war Insbesondere für i = p: α r j + µ r (( m r 1) + 1) α i j + µ i (m i + 1) i Q \ {r. α p j + µ p ( m p + 1) α p j + µ p (m p + 1) α r j + µ r m r. Das ist ein Widerspruch zu (1.34). Also ist m optimal. Im Fall q = 2 wird Algorithmus zu einer einfachen Formel, mit der sich die Koeffizienten explizit berechnen lassen. Korollar Sei q = 2 und µ 1, µ 2 0, µ 1 + µ 2 0. Dann gilt: γ j = min{α 1 j + µ 1 m 0, α 2 j µ 2 m 0, j J I (1.35) mit m 0 = α2 j α 1 j µ 1 + µ 2. (1.36) Beweis. Mit m 1 := m 0, m 2 := m 0 sind die notwendigen Bedingungen für die Optimalität erfüllt: m 1 + m 2 = 0 (vgl. (1.32)) und α 1 j + µ 1 m 1 = α 2 j + µ 2 m 2 (vgl. (1.33)). Wie in Algorithmus definieren wir nun m 1 := m 1 = m 0, m 2 := m 2 = m 0, k := m 1 m 2 = m 0 + m 0. Wenn m 0 = m 0 = m 0, also m die Optimalität von m und ganzzahlig, ist k = 0. Daraus folgt nach Satz γ j = α 1 j + µ 1 m 1 = α 2 j + µ 2 m 2 = min{α 1 j + µ 1 m 0, α 2 j µ 2 m 0, d. h. (1.35).

44 34 KAPITEL 1. DIE THEORIE DES VERFAHRENS Andernfalls ist k = q 1 = 1. In der einzigen Iteration des Algorithmus wird min{αj 1 + µ 1 (m 1 + 1), αj 2 + µ 2 (m 2 + 1) berechnet und das entsprechende m i inkrementiert: m = m 0, bzw. m = m 0. Nach Satz ist m jetzt optimal, d. h. (1.35) liefert γ j. Bemerkung Unter den Voraussetzungen von Korollar gilt: γ j α j := max{α 1 j, α 2 j. Also wird der entsprechende Schnitt (α, β) aus Satz durch (γ, γ 0 ) verschärft. Beweis. Indirekt. Annahme: α 1 j + µ 1 m 0, α 2 j µ 2 m 0 γ j > α j α 1 j, α 2 j. = αj 1 + µ 1 m 0 > αj 1 αj 2 µ 2 m 0 > αj 2 = µ 1 m 0 > 0 µ 2 m 0 > 0 = m 0 > 0 = m 0 1 m 0 > 0 m 0 1 = m 0 m 0 2. Aber: m 0 m 0 < m 0 + 1, m 0 1 < m 0 m 0. Widerspruch! = 0 = m 0 m 0 m 0 m 0 < m m = Anwendung auf Lift & Project Sei K := {x IR n : Ax b, x 0, x j 1, j J := {x IR n : Âx ˆb, x 0, K 0 := {x K : x j {0, 1, j J wie oben und j J.

45 1.3. ZUSAMMENHANG MIT DISJUNKTIVER PROGRAMMIERUNG 35 Gemäß Satz ist P j (K) = conv{x IR n : Âx ˆb e T j x 0 e T j x 0 x 0 Âx ˆb e T j x 1 e T j x 1 x 0. Gegeben seien Multiplikatoren û, ˆv IR m+p, u 0, v 0 IR, û, ˆv 0. Zerlege u 0 und v 0 in Positiv- und Negativteile u + 0, u 0, v + 0, v 0 0: u 0 = u + 0 u 0, v 0 = v + 0 v 0, u + 0 u 0 = 0, v + 0 v 0 = 0. Zur Vereinfachung benutzen wir folgende Schreibweisen: A 1 := Â e T j e T j, b 1 := ˆb 0 0, a 1 0 := ˆb 1 1, θ 1 := û u + 0 u 0 0, A 2 := Â e T j e T j, b 2 := ˆb 1 1, a 2 0 := ˆb 0 2, θ 2 := ˆv v 0 + v0 0. Dann sind die folgenden drei Bedingungen erfüllt: A 1 x a 1 0, A 2 x a 2 0, (1.37) ( A 1 x b 1 ) ( A x b 2 ), x 0 x 0 (1.38) x k ganzzahlig, k J. (1.39) Wie oben definieren wir nun α 1 T α 2 T := θ 1T A 1 = û T Â + u + 0 e T j + u 0 ( e T j ) = û T Â + u 0 e T j, := θ 2T A 2 = ˆv T Â + v 0 + e T j + v0 ( e T j ) = ˆv T Â + v 0 e T j, β 1 := θ 1T b 1 = û Tˆb + u u 0 0 = û Tˆb, β 2 := θ 2T b 2 = ˆv Tˆb + v v0 ( 1) = ˆv Tˆb + v0, µ 1 := θ 1T (b 1 a 1 0) = β 1 û Tˆb u + 0 ( 1) u 0 ( 1) = u 0, µ 2 := θ 2T (b 2 a 2 0) = β 2 ˆv Tˆb v v0 ( 2) = v 0. Dann ist n α k x k β k=1

46 36 KAPITEL 1. DIE THEORIE DES VERFAHRENS mit den Koeffizienten α k = max{αk, 1 αk, 2 k {1,..., n, β = min{β 1, β 2 laut Satz (und dessen Herleitung) eine gültige Ungleichung für P j (K). Wegen (1.37), (1.38) und (1.39) ist gemäß Satz und Korollar n γ k x k γ 0 k=1 mit den Koeffizienten γ k = min{αk 1 + µ 1 m 0, αk 2 µ 2 m 0 mit m 0 = α2 k αk 1, k J, µ 1 + µ 2 γ k = max{αk, 1 αk 2 = α k, k {1,..., n \ J, γ 0 = min{β 1, β 2 = β eine gültige Ungleichung für convk 0. (γ, γ 0 ) ist laut Bemerkung die Verschärfung von (α, β).

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule 1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 2: Konvexe Mengen und Kegel Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 19. April 2010) Gliederung 2 Konvexe Mengen

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Grundlagen der Arithmetik und Zahlentheorie

Grundlagen der Arithmetik und Zahlentheorie Grundlagen der Arithmetik und Zahlentheorie 1.0 Teilbarkeit In diesem Abschnitt werden wir einerseits die ganzen Zahlen an sich studieren und dabei besonders wichtige Zahlen, die Primzahlen, entsprechend

Mehr

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl. Unterräume und Lineare Hülle 59 3. Unterräume und Lineare Hülle Definition.1 Eine Teilmenge U eines R-Vektorraums V heißt von V, wenn gilt: Unterraum (U 1) 0 U. (U ) U + U U, d.h. x, y U x + y U. (U )

Mehr

A = A A

A = A A Musterlösung - Aufgabenblatt 8 Aufgabe 1 Gegeben ist das Polytop P = conv {±e i ± e j : 1 i, j 3, i j} = conv {e 1 + e 2, e 1 e 2, e 1 + e 2, e 1 e 2, e 1 + e 3, e 1 e 3, e 1 + e 3, e 1 e 3, e 2 + e 3,

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Zahlentheorie. Stefan Takacs Linz, am 2. Juni 2004

Zahlentheorie. Stefan Takacs Linz, am 2. Juni 2004 Zahlentheorie Anna Rieger 0355556 Stefan Takacs 0356104 Daniela Weberndorfer 0355362 Linz, am 2. Juni 2004 Zusammenfassung Die vorliegende Arbeit über die grundlegenden Sätze der Zahlentheorie beschäftigt

Mehr

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein. 6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor

Mehr

b liegt zwischen a und c.

b liegt zwischen a und c. 2 DIE ANORDNUNGSAXIOME 5 (2.4) a, b, c R : (a < b 0 < c) ac < bc Monotoniegesetz der Multiplikation Bezeichnungen a > b : b < a (> wird gelesen: größer als ) a b : a < b oder a = b a b : a > b oder a =

Mehr

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex. Konvexe Mengen 2 Wie am Ende des vorigen Kapitels bereits erwähnt, ist die notwendige Gradientenbedingung aus Satz 1.4.6 für konvexe Zielfunktionen auch hinreichend. Diese Tatsache mag als erste Motivation

Mehr

Operations Research. Polyeder und Polytope. Polyeder und Polytope. Polyeder. Rainer Schrader. 11. Mai Gliederung. sei P R n

Operations Research. Polyeder und Polytope. Polyeder und Polytope. Polyeder. Rainer Schrader. 11. Mai Gliederung. sei P R n Operations Research Rainer Schrader Polyeder und Zentrum für Angewandte Informatik Köln. Mai 27 / 83 2 / 83 Gliederung Polyeder Optimierung linearer Funktionen Rezessionskegel und polyedrische Kegel rationale

Mehr

Schnittebenenverfahren und Heuristiken

Schnittebenenverfahren und Heuristiken KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben

Mehr

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 1: Facetten des Knapsack-Polytops

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 1: Facetten des Knapsack-Polytops Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis Barbara Wilhelm Michael Ritter Station 1: Facetten des Knapsack-Polytops Diskutieren Sie folgende Fragen

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Differenzengleichungen. und Polynome

Differenzengleichungen. und Polynome Lineare Differenzengleichungen und Polynome Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-600 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung Mit linearen Differenzengleichungen

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Graduiertenschule HGS MathComp Dr. Stefan Körkel Magdalena Gottfried Übungen zur Linearen Optimierung Sommersemester 2011

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Leitfaden 20. t = dim V dimu.

Leitfaden 20. t = dim V dimu. Leitfaden 2 Einschub (Nachtrag zur LA I): Komplementärbasen Sei V ein Vektorraum, U ein Unterraum Eine Folge (v,, v t ) von Vektoren aus V heißt linear unabhängig modulo U, falls folgendes gilt: sind p

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

3 Polytope. 3.1 Polyeder

3 Polytope. 3.1 Polyeder 28 3 Polytope 3.1 Polyeder Polytope in der Ebene und im Raum standen neben Kreis und Kugel schon während der griechischen Antike im Mittelpunkt des mathematischen (und philosophischen) Interesses. Durch

Mehr

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen In diesem Kapitel werden nur endlich dimensionale

Mehr

GEOMETRIE DER POLYEDER

GEOMETRIE DER POLYEDER GEOMETRIE DER POLYEDER Das Polyeder P sei gegeben durch P = x R n Ax b. Definition. (i) Die Hyperebene H = x R n c T x = d,c, heißt Stützhyperebene von P, falls die Ungleichungc T x d redundant ist bzgl.

Mehr

Triangulierungen von Punktmengen und Polyedern

Triangulierungen von Punktmengen und Polyedern Triangulierungen von Punktmengen und Polyedern Vorlesung im Sommersemester 2000 Technische Universität Berlin Jörg Rambau 17.05.2000 Sekundärpolytop und 6 bistellare Operationen In diesem Kapitel werden

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 23. Mai 2016 Stefan Ruzika 7: Bild, Faser, Kern 23. Mai 2016 1 / 11 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume 4 Basis

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Der Eulersche Polyedersatz in beliebiger Dimension

Der Eulersche Polyedersatz in beliebiger Dimension Der Eulersche Polyedersatz in beliebiger Dimension Rolf Stefan Wilke 17. Juli 2007 Definition. Sei P R d ein Polytop der Dimension d. Es bezeichne f k (P ) die Anzahl der k-dimensionalen Seitenflächen.

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil

Mehr

Elementare Beweismethoden

Elementare Beweismethoden Elementare Beweismethoden Christian Hensel 404015 Inhaltsverzeichnis Vortrag zum Thema Elementare Beweismethoden im Rahmen des Proseminars Mathematisches Problemlösen 1 Einführung und wichtige Begriffe

Mehr

IV Beweise in der Mathematik

IV Beweise in der Mathematik Propädeutikum 018 0. September 018 Mathematische Texte enthalten verschiedene Bezeichnungen der Sinneinheiten. Bezeichnungen in mathematischen Texten Axiome elementare Grundaussagen; werden nicht bewiesen

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,

Mehr

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Wie in der reellen Analysis üblich notiert man Folgen f in der Form 2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 4.3 und 4.4

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

3.3 Optimale binäre Suchbäume

3.3 Optimale binäre Suchbäume 3.3 Optimale binäre Suchbäume Problem 3.3.1. Sei S eine Menge von Schlüsseln aus einem endlichen, linear geordneten Universum U, S = {a 1,,...,a n } U und S = n N. Wir wollen S in einem binären Suchbaum

Mehr

Kapitel 1. Grundlegendes

Kapitel 1. Grundlegendes Kapitel 1 Grundlegendes Abschnitt 1.4 Vollständige Induktion Charakterisierung der natürlichen Zahlen Die Menge N 0 = {0, 1, 2, 3,...} der natürlichen Zahlen läßt sich wie folgt charakterisieren: 1. 0

Mehr

Wissenschaftliches Arbeiten Quantitative Methoden

Wissenschaftliches Arbeiten Quantitative Methoden Wissenschaftliches Arbeiten Quantitative Methoden Prof. Dr. Stefan Nickel WS 2008 / 2009 Gliederung I. Motivation II. III. IV. Lesen mathematischer Symbole Wissenschaftliche Argumentation Matrizenrechnung

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z);

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z); 5 Vektorräume Was wir in den vorangegangenen Kapiteln an Matrizen und Vektoren gesehen haben, wollen wir nun mathematisch abstrahieren. Das führt auf den Begriff des Vektorraumes, den zentralen Begriff

Mehr

3.3 Der Seitenverband

3.3 Der Seitenverband Diskrete Geometrie (Version 3) 10. Januar 2012 c Rudolf Scharlau 217 3.3 Der Seitenverband Wir setzen die Untersuchung der Relation ist Seite von auf der Menge aller konvexen Polytope in einem gegebenen

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Universität Innsbruck WS 2013/2014. Brückenkurs. Formale Konzepte. 3. Auflage. Harald Zankl. 15. Januar 2014

Universität Innsbruck WS 2013/2014. Brückenkurs. Formale Konzepte. 3. Auflage. Harald Zankl. 15. Januar 2014 Universität Innsbruck WS 013/014 Brückenkurs Formale Konzepte 3. Auflage Harald Zankl 15. Januar 014 Institut für Informatik Innsbruck, Österreich Inhaltsverzeichnis 1 Definition, Satz, Beweis 1.1 Aufgaben................................

Mehr

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................

Mehr

Mengenlehre und vollständige Induktion

Mengenlehre und vollständige Induktion Fachschaft MathPhys Heidelberg Mengenlehre und vollständige Induktion Vladislav Olkhovskiy Vorkurs 018 Inhaltsverzeichnis 1 Motivation 1 Mengen.1 Grundbegriffe.................................. Kostruktionen

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt Universität Konstanz Fachbereich Mathematik und Statistik Wintersemester 213/214 Markus Schweighofer Lineare Algebra I 6.2 Basen Definition 6.2.1. Seien V ein K-Vektorraum, n N und v 1,..., v n V. (a)

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule

Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule Berufsfeldbezogenes Fachseminar - Zahlentheorie Lisa Laudan Prof. Dr. Jürg Kramer Wintersemester 2014/2015 Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule 1.1

Mehr

mathe plus Aussagenlogik Seite 1

mathe plus Aussagenlogik Seite 1 mathe plus Aussagenlogik Seite 1 1 Aussagenlogik 1.1 Grundbegriffe Def 1 Aussage Eine Aussage ist ein beschriebener Sachverhalt, dem eindeutig einer der Wahrheitswerte entweder wahr oder falsch zugeordnet

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung D-MATH/D-PHYS Lineare Algebra I HS 06 Dr. Meike Akveld Lösung Serie : Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung. Um zu zeigen, dass es sich bei den gegebenen Vektoren um Basen handelt,

Mehr

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i )

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i ) Prof. Dr. U. Faigle J. Voss SS 2011 12. Übung zur Einführung in die Mathematik des Operations Research Dieses Übungsblatt wird nicht mehr gewertet. Aufgabe 1: Sei G = (V, E) ein gerichteter Graph und x

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension 23 Basis und Dimension Erinnerung Gegeben ein K-Vektorraum V, ein Vektorensystem x,, x n in V Eine Linearkombination in den x i ist ein Vektor der Form λ x + + λ n x n mit λ i K Die λ i heißen Koeffizienten

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 2 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 2-4 und nv jokar@mathtu-berlinde Kapitel 4 Der

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Hüllen und Kombinationen

Hüllen und Kombinationen Hüllen und Kombinationen 2 Die zulässigen Bereiche in der Linearen Optimierung sind Lösungen von linearen Ungleichungssystemen. Deswegen müssen wir die Werkzeuge der linearen Algebra um Elemente erweitern,

Mehr

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a x LINEARE ABBILDUNGEN Denition: Seien V; V Vektorraume Eine Abbildung f heit linear, falls (i) (ii) f(x + y) f(x) + f(y) (x; y V ) f(x) f(x) ( R; x V ) Bemerkungen: I (i) und (ii) oben sind aquivalent

Mehr

bisher Konsequenz Frage

bisher Konsequenz Frage bisher Ein Algorithmus, der uns verrät, wenn die Aussage F unerfüllbar ist: berechne die Skolemform und daraus die Klauselform versuche, die leere Klausel mittels prädikatenlogischer Resolution herzuleiten

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und

Mehr

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2007)

Vorlesung Lineare Optimierung (Sommersemester 2007) 1 Vorlesung Lineare Optimierung (Sommersemester 007) Kapitel 9: Ganzzahlige Polyeder und Kombinatorische Dualität Volker Kaibel Otto-von-Guericke Universität Magdeburg Montag, 9. Juli 007 Gliederung Ganzzahlige

Mehr

3.3 Reduzierte Basen nach Lenstra, Lenstra und Lovász

3.3 Reduzierte Basen nach Lenstra, Lenstra und Lovász Gitter und Codes c Rudolf Scharlau 15. Juni 2009 221 3.3 Reduzierte Basen nach Lenstra, Lenstra und Lovász Alternativ zu klassischen Konzepten wie dem von Minkowski gibt es seit gut 25 Jahren den Reduktionsbegriff

Mehr

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis Barbara Wilhelm Michael Ritter Station 3: Das Matching-Polytop Diskutieren Sie folgende Fragen in der

Mehr

Aufbau der Projektiven Geometrie

Aufbau der Projektiven Geometrie Seminararbeit zum Seminar aus Reiner Mathematik Aufbau der Projektiven Geometrie Leonie Knittelfelder Matr. Nr. 1011654 WS 2012/13 Inhaltsverzeichnis 1 Einleitung 3 2 Linearmengen 4 2.1 Satz (1.3.1): Das

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

Erfüllbarkeitstests. Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl.

Erfüllbarkeitstests. Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl. Erfüllbarkeitstests Im folgenden: Ein sehr effizienter Erfüllbarkeitstest für eine spezielle Klasse von Formeln in KNF, sogenannte Hornformeln (vgl. Grundlagen und diskrete Strukturen ) Ein für Formeln

Mehr