3.2.5 Dualität der linearen Optimierung I

Ähnliche Dokumente
Schranken für zulässige Lösungen

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

Optimalitätskriterien

OPERATIONS-RESEARCH (OR)

Bestimmung einer ersten

Teil II. Nichtlineare Optimierung

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Anwendungen der linearen Programmierung

Optimierung für Nichtmathematiker

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen

Lösungen zu den Übungsaufgaben aus Kapitel 5

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Statische Optimierung unter Ungleichungsrestriktionen (Kuhn-Tucker)

Lineare Programmierung

Einführung. Kapitel 1. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Nichtlineare Optimierung ohne Nebenbedingungen

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen

Einführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens

Optimierung mit Matlab

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah

4. Dynamische Optimierung

Einführung in das Operations Research

Die Laufzeit muss nun ebenfalls in Monaten gerechnet werden und beträgt = 300 Monate. Damit liefert die Sparkassenformel (zweiter Teil):

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling

Elemente der Analysis II

Einführung in die Optimierung Sommersemester Anita Schöbel

(Lineare) stochastische Optimierung

17. Penalty- und Barriere-Methoden

Lineare Gleichungssysteme

3. Grundlagen der Linearen Programmierung

Optimierung. Florian Jarre Josef Stoer. Springer

Prof. Dr. J. Böhm-Rietig LO FH-Köln, Fak / Lineare Optimierung. Foliensammlung.

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

0. Einleitung Der Begriff Operations Research / Decision Support

Entwurf robuster Regelungen

Bachelorarbeit. Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems

Lineare Optimierung. Master 1. Semester

Prüfungsklausur Wirtschaftsmathematik I Studiengang Wirtschaftsinformatik, (180 Minuten)

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

3. Die Eigenschaften der reellen Zahlen II: Geordnete Körper

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Algorithmische Anwendungen

Asset Allocation mit dem Wolfe Algorithmus

1 Lineare Gleichungssysteme

Algorithms for Regression and Classification

Ausgewählte Methoden der ganzzahligen Linearen Optimierung

Diplomprüfung. Operations Research I WS 2007/2008 (4 Punkte)

Logistik: Rundreisen und Touren

LINDO API, LINGO & What sbest! Power-Anwendungen für Optimierungsaufgaben

Operations Research für Wirtschaftsinformatiker. Vorlesungsskript von Richard Mohr

Charakteristikenmethode im Beispiel

Skalare Differentialgleichungen

Modul Diskrete Mathematik WiSe 2011/12

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Das Optimierungsverfahren mit Lagrange-Multiplikatoren. Robert Koschig ( 09/2012

MATTHIAS GERDTS. Optimierung für Wirtschaftsinformatiker

Lineare Gleichungssysteme

34 5. FINANZMATHEMATIK

H mm. H mm

1.2 Wachstum bei endogener Sparquote

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

TEILWEISE ASYNCHRONE ALGORITHMEN

Fachhochschule Bochum Fachhochschule Südwestfalen

Extrema von Funktionen in zwei Variablen

Die Verbindung von Linearer Programmierung und Graphentheorie

Optimal Control in Air Traffic Management

Outer Approximation für konvexe MINLP-Probleme

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Vorlesungsmitschrift Operations Research I und II

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Nichtlineare Optimierungsprobleme mit Komplexität

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Exkurs: Dynamische Optimierung

Codierungstheorie Rudolf Scharlau, SoSe

Lineare Optimierung. Vorlesung von Prof. Christiane Tammer Author : Georg Kuschk (Quelle :

Skript zur Vorlesung Optimierung linearer Modelle Gültig ab Sommersemester Prof. Dr. S. Dempe

Binäre lineare Optimierung mit K*BMDs p.1/42

Lineare Algebra - alles was man wissen muß

Vorlesung. 1 Zahlentheorie in Z. Leitfaden. 1.1 Teilbarkeit. Angela Holtmann. Algebra und Zahlentheorie. (natürliche Zahlen ohne die Null)

1 Einführung Was ist Operations Research? Modellierung und Methodik...2

Mathematik 1 für Wirtschaftsinformatik

Einsatz von Software zur Lösung linearer Optimierungsprobleme

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG

Kleiner Satz von Fermat

Inhaltsverzeichnis. Vorwort... V. Symbolverzeichnis... XIII

Programmieren in JavaScript

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Doing Economics with the Computer Sommersemester Excel Solver 1

Aufgabenblatt 6 zur Lehrveranstaltung Quantitative Methoden der Betriebswirtschaftslehre I Frühjahrssemester 2015

Statistische Thermodynamik I Lösungen zur Serie 1

Einführung in die Mathematische Optimierung

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht

MATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung

Transkript:

3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem Maximierungsproblem (und umgekehrt) übergeht und dabei für jede Restriktion des ursprünglichen Problems eine neue Variable einführt. Als neue Koeffizientenmatrix der Restriktionen dient die Transponierte der ursprünglichen Koeffizientenmatrix. Ferner sindauchdierollenvoncundbzuvertauschen;cwirdzumspaltenvektor der Restriktionen, während nun b zu einem Faktor des die Zielfunktion bestimmenden Skalarprodukts wird.

Def. 3.36 Duale Standard-Minimum- und Standard- Maximum-Probleme Gegeben sei das Standard-Minimum-Problem in der Variablen w aus Definition 3.8. Dann heißt die Optimierungsaufgabe unter den Nebenbedingungen b T u max (1 m)(m 1) u (3.7) R T u c (n m)(m 1) (n 1) u 0 (m 1) (m 1) (3.8)

das zugehörige duale Standard-Maximum-Problem. In diesem Zusammenhang wird dann das ursprüngliche Problem als primales Standard-Minimum-Problem bezeichnet. Analog wird bei gegebenem Standard-Maximum-Problem in der Variablen w die Optimierungsaufgabe b T u min (1 m)(m 1) u (3.9)

unter den Nebenbedingungen R T u c (n m)(m 1) (n 1) u 0 (m 1) (m 1) (3.10) als zugehöriges duales Standard-Minimum-Problem bezeichnet. Das ursprüngliche Problem heißt dann primales Standard-Maximum- Problem. Der Zusammenhang zwischen Primalprogramm und Dualprogramm geht über die oben beschriebene, äußere Komplementarität weit hinaus:

Proposition 3.37 Zur Beziehung zwischen Primal-Problem und Dual-Problem Gegeben sei das Standard-Minimum-Problem (3.3f.) in der Variablen w und das zugehörige duale Standard-Maximum-Problem (3.7f.) in der Variablen u. Dann gilt: 1. Das duale Standard-Minimum-Problem zu (3.7f.) ist wieder das ursprüngliche Standard-Minimum-Problem (3.3f.)..Ist w eine zulässige Lösung eines Standard-Minimum-Problems und ũ eine zulässige Lösung des zugehörigen dualen Standard-Maximum- Problems, so gilt c T w b T ũ. w und ũ sind genau dann Optimallösungen, wenn in dieser Beziehung Gleichheit herrscht.

3. Das primale Standard-Minimum-Problem besitzt genau dann eine Optimallösung w, wenn für das duale Standard-Maximum-Problem eine Optimallösung u existiert. Gemäß oben sind dann beide Kriteriumswerte c T w und b T u gleich.

Bsp. 3.38 (Zur Dualität im Bsp. 3.11 )

Bem. 3.39 Die Optimallösung (u [1],...,u [m]) T des dualen Standard-Minimum- Problems besitzen auch eine inhaltliche Interpretation. Ihre Komponenten werden als Schattenpreise oder Opportunitätskosten bezeichnet und geben an, um wie viel sich der Zielfunktionswert ändert, wenn sich die zugehörige Restriktion im primalen Programm um eine Einheit erhöht, sofern diese Änderung als klein angesehen werden kann, so dass die Restriktionen nicht grob verletzt werden. Man erhält also sozusagen den Betrag, den man maximal bereit wäre, für eine Erweiterung der Restriktion um eine Einheit zu zahlen.

Bsp. 3.40 (Schattenpreise im Bsp. 3.11) (Fortsetzung von Bsp.??)

3..6 Kanonische Form, Schlupfvariablen In gewisser Weise ausgezeichnet sind spezielle Standard-Minimum- Probleme und Standard-Maximum-Probleme, bei denen alle Restriktionen in Gestalt von Gleichungen vorliegen. Dies lässt sich stets dadurch erreichen, dass man wie in Definition 3.41 in jeder Nebenbedingung eine nichtnegative Hilfsvariable ( Schlupfvariable ) subtrahiert bzw. hinzuaddiert, die die Differenz zwischen beiden Seiten der Ungleichungen auffängt. In die Zielfunktion gehen Schlupfvariablen nicht mit ein. Wichtig ist es, auf ihre Nichtnegativität zu achten, da sonst die ursprünglichen Restriktionen nicht mehr erfüllt sein müssen.

Def. 3.41 (Kanonische Form) Gegeben sei das Standard-Minimum-Problem (3.3f.) in der Variablen w. Das Optimierungsproblem unter den Nebenbedingungen 5 [R, I m ] c T w min w (3.11) [ w w s ] = b (3.1) w 0 (n 1) w s (m 1) (n 1) 0 (m 1) 5 Dabei bezeichnet I m für jedes m IN die m-dimensionale Einheitsmatrix. (3.13) (3.14)

heißt (zugehöriges) Standard-Minimum-Problem in kanonischer Form (in der (Haupt)Variablen w mit der Schlupfvariablen w s = (w s [1],...,w s [m]) T ). Analog heißt für das Standard-Maximum-Problem (3.5f.) in der Variablen w das Optimierungsproblem c T w max w (3.15)

unter den Nebenbedingungen [R,I m ] [ w w s ] = b (3.16) w 0 (n 1) w s (m 1) (n 1) 0 (m 1) (3.17) (3.18) (zugehöriges) Standard-Maximum-Problem in kanonischer Form (in der (Haupt-)Variablen w mit der Schlupfvariablen w s = (w s [1],...,w s [m]) T ).

Bsp. 3.4 Standard-Maximum Problem in kanonischer Form im Beispiel 3.11 Man bestimme das Standard-Maximum-Problem in der kanonischen Form.

Offensichtlich besteht folgender Zusammenhang zwischen den Lösungen eines Standard-Minimum- bzw. eines Standard-Maximum-Problems und den Lösungen des zugehörigen Problems in kanonischer Form: Bem. 3.43 (Lösungen bei kanonischer Form und ursprünglicher Form) Betrachtet man ein Standard-Minimum-Problem gemäß (3.3f.) bzw. ein Standard-Maximum-Problem laut (3.5f.) sowie die in (3.11ff.) und (3.15ff.) beschriebenen zugehörigen Standard-Minimum-Probleme bzw. Standard- Maximum-Probleme in kanonischer Form. Dann gilt:

1.Ist ( w[1],..., w[n], w s [1],..., w s [m]) T zulässig (resp. eine Optimallösung) für das Problem in kanonischer Form gemäß (3.11ff.) bzw. (3.15ff.), so ist ( w[1],..., w[n]) T zulässig (resp. eine Optimallösung) für das entsprechende Problem (3.3f.) bzw. (3.5f.).. Umgekehrt gibt es zu jeder zulässigen (resp. optimalen) Lösung ( w[1],..., w[n]) T des Problems (3.3f.) bzw. (3.5f.) eine zulässige (resp. optimale) Lösung ( w[1],..., w[n], w s [1],..., w s [m]) T des zugehörigen Problems in kanonischer Form laut (3.11ff.) bzw. (3.15ff.).

Der praktische Nutzen der Verwendung von Schlupfvariablen liegt darin, dass man durch sie erkennen kann, bei welchen Restriktionen noch Spiel ist, d.h. welche Kapazitätsbeschränkungen nicht zur Gänze ausgeschöpft werden.

3..7 Dualität II: Der Satz vom komplementären Schlupf Vom theoretischen wie praktischen Blickwinkel ist der Satz vom komplementären Schlupf (s.u.) von gro ser Bedeutung. Wendet man zu seiner Vorbereitung die Dualitätsbetrachtungen aus Definition 3.36 auf Standard-Minimum- bzw. Standard-Maximum-Probleme in kanonischer Form an, so erhält man:

Bem. 3.44 Duale Programme bei Programmen in kanonischer Form Ist ein Standard-Minimum-Problem in kanonischer Form der in (3.11ff.) beschriebenen Gestalt gegeben, so lautet das zugehörige duale Standard- Maximum-Problem in kanonischer Form: b T u max u unter den Nebenbedingungen [ R T, I n ] [ u u r ] u 0 (m 1) u r (n 1) (3.19) = c (3.0) (m 1) (3.1) 0 (n 1). (3.)

Entsprechend lautet das zu einem Standard-Maximum-Problem in kanonischer Form (vgl. 3.15ff.) gehörende duale Standard-Minimum- Problem in kanonischer Form: unter den Nebenbedingungen [ R T, I n ] [ u u r ] b T u min (3.3) u 0 (m 1) u r (n 1) = c (3.4) (m 1) (3.5) 0 (n 1). (3.6)

Natürlich behalten die Dualitätsergebnisse aus Proposition 3.37 ihre Gültigkeit. Darüber hinaus lässt sich jedoch ein fundamentaler Zusammenhang zwischen den Optimallösungen eines Problems und den Schlupfvariablen des zugehörigen dualen Problems herleiten. Es kann nämlich aus der Existenz von echt von Null verschiedenen Komponenten einer Optimallösung auf das Verschwinden der entsprechenden Haupt- bzw. Schlupfvariablen in allen Optimallösungen des zugehörigen Dual-Problems geschlossen werden. Auch ist es möglich, zulässige Lösungen aufgrund ihres Schlupfes unter Umständen als optimal zu charakterisieren:

Proposition 3.45 (Der Satz vom komplementären Schlupf) Betrachtet werde ein Standard-Minimum-Problem bzw. ein Standard- Problem in kanonischer Form gemäß (3.11ff.) bzw. (3.15ff.) und das zugehörige duale Problem in kanonischer Form, wie in (3.19ff.) bzw. (3.3ff.) beschrieben. Dann gilt: 1.Ist ( w T, w s) T T eine zulässige Lösung des primalen Problems und (ũt ),ũ T T r eine zulässige Lösung des zugehörigen dualen Problems, so sind beide genau dann optimal, wenn gilt w T ũ r + w T s ũ = 0. (3.7)

Korollar 3.46 In der Situation von Proposition 3.45 gilt für alle j = 1,...,m: a) Gibt es eine Optimallösung (w [1],...,w [n],ws[1],...,w s[m]) T für das primale Problem mit ws[j] > 0, so ist u [j] = 0 für alle Optimallösungen (u [1],...,u [m],u r[1],...,u r[n]) T des zugehörigen Dualproblems.

b) Gibt es eine Optimallösung (u [1],...,u [m],u r[1],...,u r[n]) T des Dualproblems mit u [j] > 0, so ist ws[j] = 0 für alle Optimallösungen (w [1],...,w [n],ws[1],...,w s[m]) T des primalen Problems.

Bsp. 3.47 (Der Satz vom komplemtären Schlupf im Beispiel 3.4) Illustrieren Sie anhand von Bsp 3.11 den Satz vom komplementären Schlupf!

3..8 Erweiterungen Es gibt eine Reihe wichtiger Erweiterungen: nichtlineare Zielfunktionen Hier gibt es eine Vielzahl von leistungsfähigen Algorithmen. Ist die Zielfunktion der Quotient zweier linearer Funktionen, so lässt sich eine geeignete Verallgemeinerung von Satz 3.18 und damit auch des Simplex- Algorithmus finden ( Quotientenoptimierung ). Bei allgemeinen Zielfunktionen wird das Extremum nicht notwendig in einem Extremalpunkt angenommen.

Betrachtet man beispielsweise (Varianz der Bernoulli-Verteilung) so liegt die Optimallösung p bei 1. p(1 p) max p 0 p 1, Dennoch lassen sich quadratische Optimierungsprobleme (wie z.b. das KQ-Kriterium unter Nebenbedingungen) mit einem Simplex-ähnlichen Verfahren lösen (etwa: Büning et. al., 000, Kap. 8.9).

Parametrische Optimierung: Die Zielfunktion und/oder Restriktionen hängen von einem Parameter ab. (Wichtig z.b. für Sensitivitätsanalysen) Auch hier sind Varianten z.b. des Simplex-Verfahren möglich. Ganzzahlige Optimierung Sind die Lösungen inhaltlich zwingend ganzzahlig (z.b. die Aufteilung von wenigen unteilbaren Ressourcen), so ist eine eigenständige Betrachtung nötig. Ein besonderer Spezialfall ist die Boolesche Optimierung, bei der nur 0, 1-Variablen zugelassen sind.

4 Entscheidungsprobleme unter einem allgemeineren Wahrscheinlichkeitsbegriff