Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau



Ähnliche Dokumente
Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Optimierung für Nichtmathematiker

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Nichtmathematiker

OPERATIONS-RESEARCH (OR)

Optimierung für Nichtmathematiker

3. Grundlagen der Linearen Programmierung

Bestimmung einer ersten

Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt

Nichtlineare Optimierung ohne Nebenbedingungen

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Die Verbindung von Linearer Programmierung und Graphentheorie

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Lineare Gleichungssysteme

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen

4. Dynamische Optimierung

Optimierung. Florian Jarre Josef Stoer. Springer

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah

Optimalitätskriterien

Teil II. Nichtlineare Optimierung

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Schranken für zulässige Lösungen

Lineare Gleichungssysteme I (Matrixgleichungen)

Mathematik 1 für Wirtschaftsinformatik

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Lineare Programmierung

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Eigenwerte und Eigenvektoren von Matrizen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Lineare Gleichungssysteme

7 Rechnen mit Polynomen

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Extrema von Funktionen in zwei Variablen

Sudoku-Informatik oder wie man als Informatiker Logikrätsel löst

Simplex-Umformung für Dummies

3.1. Die komplexen Zahlen

Lineare Optimierung Ergänzungskurs

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

3. LINEARE GLEICHUNGSSYSTEME

Praktische Mathematik: Lineare und Netzwerk-Optimierung (SS 2015) Praktikumsaufgaben

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

1 Mathematische Grundlagen

Data Mining: Einige Grundlagen aus der Stochastik


Professionelle Seminare im Bereich MS-Office

Kapitel 15. Lösung linearer Gleichungssysteme

LINGO: Eine kleine Einführung

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester gehalten von Harald Baum

Kevin Caldwell. 18.April 2012

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Vorkurs Mathematik Übungen zu Polynomgleichungen

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

Musterlösungen zur Linearen Algebra II Blatt 5

14 Schmiegeparabel und Freunde, Taylor-Reihe

6.2 Scan-Konvertierung (Scan Conversion)

a n auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

Absolute Stetigkeit von Maßen

Primzahlen und RSA-Verschlüsselung

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

Teil II Optimierung. Peter Buchholz Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Bevor lineare Gleichungen gelöst werden, ein paar wichtige Begriffe, die im Zusammenhang von linearen Gleichungen oft auftauchen.

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Einführung in die Algebra

Zeichen bei Zahlen entschlüsseln

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

Charakteristikenmethode im Beispiel

Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

TECHNISCHE UNIVERSITÄT MÜNCHEN

Lineare Gleichungssysteme

Erstellen von x-y-diagrammen in OpenOffice.calc

1 topologisches Sortieren

Grundbegriffe der Informatik

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Eine Einführung zum numerischen Programmieren mit Excel

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli Fachbereich für Mathematik und Statistik Universität Konstanz

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Grundlagen der Videotechnik. Redundanz

Einführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens

Einführung in. Logische Schaltungen

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Informationsblatt Induktionsbeweis

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Alignment-Verfahren zum Vergleich biologischer Sequenzen

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

Diskrete Optimierung

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Transkript:

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung mit Optimierungssoftware grobes Verständnis für Funktionsweise und Grenzen der Optimierungsverfahren ET/IT, MB, WiWi Anwendungen in allen drei Gebieten (z.b. Signalverarbeitung, Truss Topology Design, Operations Research)

Inhaltsübersicht für heute: Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen Lineare Optimierung Der Simplex-Algorithmus

Inhaltsübersicht für heute: Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen Lineare Optimierung Der Simplex-Algorithmus

Das Optimierungsproblem in allgemeiner Form (P) Minimiere f (x) Zielfunktion unter (s.t.) h i (x) = 0, i E Gleichungsnebenbed. g i (x) 0, i I Ungleichungsnebenbed. x Ω Variablen, Grundmenge Bei uns meist: Ω R n (geht aber auch C n,z n, Funktionenräume...) f, g i, h i : R n R (linear, konvex, hinreichend glatt,... ) E, I endliche Indexmengen (abzählbar, überabzählbar)

Das Optimierungsproblem in allgemeiner Form (P) Minimiere f (x) Zielfunktion unter (s.t.) h i (x) = 0, i E Gleichungsnebenbed. g i (x) 0, i I Ungleichungsnebenbed. x Ω Variablen, Grundmenge Bei uns meist: Ω R n (geht aber auch C n,z n, Funktionenräume...) f, g i, h i : R n R (linear, konvex, hinreichend glatt,... ) E, I endliche Indexmengen (abzählbar, überabzählbar) Beispiel (P1) min x x 2 s.t. x 2 1, x R

Das Optimierungsproblem in allgemeiner Form (P) Minimiere f (x) Zielfunktion unter (s.t.) h i (x) = 0, i E Gleichungsnebenbed. g i (x) 0, i I Ungleichungsnebenbed. x Ω Variablen, Grundmenge Bei uns meist: Ω R n (geht aber auch C n,z n, Funktionenräume...) f, g i, h i : R n R (linear, konvex, hinreichend glatt,... ) E, I endliche Indexmengen (abzählbar, überabzählbar) Beispiel (P1) min x x 2 s.t. x 2 1, x R (f (x) = x x 2, E =, g 1 (x) = x 2 1, I = {1}, Ω = R)

Das Optimierungsproblem in allgemeiner Form (P) Minimiere f (x) Zielfunktion unter (s.t.) h i (x) = 0, i E Gleichungsnebenbed. g i (x) 0, i I Ungleichungsnebenbed. x Ω Variablen, Grundmenge Bei uns meist: Ω R n (geht aber auch C n,z n, Funktionenräume...) f, g i, h i : R n R (linear, konvex, hinreichend glatt,... ) E, I endliche Indexmengen (abzählbar, überabzählbar) Beispiel (P1) min x x 2 s.t. x 2 1, x R (f (x) = x x 2, E =, g 1 (x) = x 2 1, I = {1}, Ω = R) (P2) min x x 2 s.t. 1 x 1, x R

Das Optimierungsproblem in allgemeiner Form (P) Minimiere f (x) Zielfunktion unter (s.t.) h i (x) = 0, i E Gleichungsnebenbed. g i (x) 0, i I Ungleichungsnebenbed. x Ω Variablen, Grundmenge Bei uns meist: Ω R n (geht aber auch C n,z n, Funktionenräume...) f, g i, h i : R n R (linear, konvex, hinreichend glatt,... ) E, I endliche Indexmengen (abzählbar, überabzählbar) Beispiel (P1) min x x 2 s.t. x 2 1, x R (f (x) = x x 2, E =, g 1 (x) = x 2 1, I = {1}, Ω = R) (P2) min x x 2 s.t. 1 x 1, x R (f, E, Ω w.o., g 1 (x) = 1 x, g 2 (x) = x 1, I = {1, 2})

Das Optimierungsproblem in allgemeiner Form (P) Minimiere f (x) Zielfunktion unter (s.t.) h i (x) = 0, i E Gleichungsnebenbed. g i (x) 0, i I Ungleichungsnebenbed. x Ω Variablen, Grundmenge Bei uns meist: Ω R n (geht aber auch C n,z n, Funktionenräume...) f, g i, h i : R n R (linear, konvex, hinreichend glatt,... ) E, I endliche Indexmengen (abzählbar, überabzählbar) Beispiel (P1) min x x 2 s.t. x 2 1, x R (f (x) = x x 2, E =, g 1 (x) = x 2 1, I = {1}, Ω = R) (P2) min x x 2 s.t. 1 x 1, x R (f, E, Ω w.o., g 1 (x) = 1 x, g 2 (x) = x 1, I = {1, 2}) (P3) min x x 2 s.t. x [ 1, 1]

Das Optimierungsproblem in allgemeiner Form (P) Minimiere f (x) Zielfunktion unter (s.t.) h i (x) = 0, i E Gleichungsnebenbed. g i (x) 0, i I Ungleichungsnebenbed. x Ω Variablen, Grundmenge Bei uns meist: Ω R n (geht aber auch C n,z n, Funktionenräume...) f, g i, h i : R n R (linear, konvex, hinreichend glatt,... ) E, I endliche Indexmengen (abzählbar, überabzählbar) Beispiel (P1) min x x 2 s.t. x 2 1, x R (f (x) = x x 2, E =, g 1 (x) = x 2 1, I = {1}, Ω = R) (P2) min x x 2 s.t. 1 x 1, x R (f, E, Ω w.o., g 1 (x) = 1 x, g 2 (x) = x 1, I = {1, 2}) (P3) min x x 2 s.t. x [ 1, 1] (I = E =, Ω = [ 1, 1])

(P) Terminologie: Zulässige Menge, Optimalwert Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Glgsnebenbed. g i (x) 0 i I Unglgsnebenbed. x Ω Grundmenge } Restriktionen Definition Punkte, die alle Bedingungen erfüllen, bilden die zulässige Menge X (P) := {x Ω : h i (x) = 0, i E, g j (x) 0, j I}

(P) Terminologie: Zulässige Menge, Optimalwert Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Glgsnebenbed. g i (x) 0 i I Unglgsnebenbed. x Ω Grundmenge } Restriktionen Definition Punkte, die alle Bedingungen erfüllen, bilden die zulässige Menge X (P) := {x Ω : h i (x) = 0, i E, g j (x) 0, j I} Ist X (P) =, heißt das Problem (P) unzulässig.

(P) Terminologie: Zulässige Menge, Optimalwert Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Glgsnebenbed. g i (x) 0 i I Unglgsnebenbed. x Ω Grundmenge } Restriktionen Definition Punkte, die alle Bedingungen erfüllen, bilden die zulässige Menge X (P) := {x Ω : h i (x) = 0, i E, g j (x) 0, j I} Ist X (P) =, heißt das Problem (P) unzulässig. v(p) := inf x X f (x) ist der Optimalwert von (P). Falls v(p) = heißt das Problem (P) unbeschränkt. Für unzulässiges (P) ist v(p) =.

(P) Terminologie: Zulässige Menge, Optimalwert Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Glgsnebenbed. g i (x) 0 i I Unglgsnebenbed. x Ω Grundmenge } Restriktionen Definition Punkte, die alle Bedingungen erfüllen, bilden die zulässige Menge X (P) := {x Ω : h i (x) = 0, i E, g j (x) 0, j I} Ist X (P) =, heißt das Problem (P) unzulässig. v(p) := inf x X f (x) ist der Optimalwert von (P). Falls v(p) = heißt das Problem (P) unbeschränkt. Für unzulässiges (P) ist v(p) =. Beispiel (P1) min x x 2 s.t. x 2 1, x R X =

(P) Terminologie: Zulässige Menge, Optimalwert Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Glgsnebenbed. g i (x) 0 i I Unglgsnebenbed. x Ω Grundmenge } Restriktionen Definition Punkte, die alle Bedingungen erfüllen, bilden die zulässige Menge X (P) := {x Ω : h i (x) = 0, i E, g j (x) 0, j I} Ist X (P) =, heißt das Problem (P) unzulässig. v(p) := inf x X f (x) ist der Optimalwert von (P). Falls v(p) = heißt das Problem (P) unbeschränkt. Für unzulässiges (P) ist v(p) =. Beispiel (P1) min x x 2 s.t. x 2 1, x R X =[ 1, 1], v(p1) =

(P) Terminologie: Zulässige Menge, Optimalwert Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Glgsnebenbed. g i (x) 0 i I Unglgsnebenbed. x Ω Grundmenge } Restriktionen Definition Punkte, die alle Bedingungen erfüllen, bilden die zulässige Menge X (P) := {x Ω : h i (x) = 0, i E, g j (x) 0, j I} Ist X (P) =, heißt das Problem (P) unzulässig. v(p) := inf x X f (x) ist der Optimalwert von (P). Falls v(p) = heißt das Problem (P) unbeschränkt. Für unzulässiges (P) ist v(p) =. Beispiel (P1) min x x 2 s.t. x 2 1, x R X =[ 1, 1], v(p1) = 2, ebenso (P2) ( 1 x 1, x R) und (P3) (x [ 1, 1]). (P4) min x x 2 s.t. x 2 = 1, x R X =

(P) Terminologie: Zulässige Menge, Optimalwert Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Glgsnebenbed. g i (x) 0 i I Unglgsnebenbed. x Ω Grundmenge } Restriktionen Definition Punkte, die alle Bedingungen erfüllen, bilden die zulässige Menge X (P) := {x Ω : h i (x) = 0, i E, g j (x) 0, j I} Ist X (P) =, heißt das Problem (P) unzulässig. v(p) := inf x X f (x) ist der Optimalwert von (P). Falls v(p) = heißt das Problem (P) unbeschränkt. Für unzulässiges (P) ist v(p) =. Beispiel (P1) min x x 2 s.t. x 2 1, x R X =[ 1, 1], v(p1) = 2, ebenso (P2) ( 1 x 1, x R) und (P3) (x [ 1, 1]). (P4) min x x 2 s.t. x 2 = 1, x R X = { 1, 1}, v(p4) = 2

Terminologie: Lösungen, globale/lokale Optimallösungen (P) Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Gleichungsnebenbed. g i (x) 0 i I Ungleichungsnebenbed. x Ω Grundmenge Definition x X (P)... heißt Lösung oder zulässiger Punkt Ein x X mit f (x) = v(p) heißt (globale) Optimallösung (also f (x) f (y) y X )

Terminologie: Lösungen, globale/lokale Optimallösungen (P) Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Gleichungsnebenbed. g i (x) 0 i I Ungleichungsnebenbed. x Ω Grundmenge Definition x X (P)... heißt Lösung oder zulässiger Punkt Ein x X mit f (x) = v(p) heißt (globale) Optimallösung (also f (x) f (y) y X ) Ein x X heißt lokale Optimallösung, wenn es eine (kleine) Umgebung U(x) um x gibt mit f (x) f (y) y X U(x)

Terminologie: Lösungen, globale/lokale Optimallösungen (P) Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Gleichungsnebenbed. g i (x) 0 i I Ungleichungsnebenbed. x Ω Grundmenge Definition x X (P)... heißt Lösung oder zulässiger Punkt Ein x X mit f (x) = v(p) heißt (globale) Optimallösung (also f (x) f (y) y X ) Ein x X heißt lokale Optimallösung, wenn es eine (kleine) Umgebung U(x) um x gibt mit f (x) f (y) y X U(x) Beispiel (P1-P3) min x x 2 s.t. x 2 1, x R globale OL:

Terminologie: Lösungen, globale/lokale Optimallösungen (P) Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Gleichungsnebenbed. g i (x) 0 i I Ungleichungsnebenbed. x Ω Grundmenge Definition x X (P)... heißt Lösung oder zulässiger Punkt Ein x X mit f (x) = v(p) heißt (globale) Optimallösung (also f (x) f (y) y X ) Ein x X heißt lokale Optimallösung, wenn es eine (kleine) Umgebung U(x) um x gibt mit f (x) f (y) y X U(x) Beispiel (P1-P3) min x x 2 s.t. x 2 1, x R globale OL: x { 1}, lokale OL:

Terminologie: Lösungen, globale/lokale Optimallösungen (P) Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Gleichungsnebenbed. g i (x) 0 i I Ungleichungsnebenbed. x Ω Grundmenge Definition x X (P)... heißt Lösung oder zulässiger Punkt Ein x X mit f (x) = v(p) heißt (globale) Optimallösung (also f (x) f (y) y X ) Ein x X heißt lokale Optimallösung, wenn es eine (kleine) Umgebung U(x) um x gibt mit f (x) f (y) y X U(x) Beispiel (P1-P3) min x x 2 s.t. x 2 1, x R globale OL: x { 1}, lokale OL: x { 1, 1}

Terminologie: Lösungen, globale/lokale Optimallösungen (P) Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Gleichungsnebenbed. g i (x) 0 i I Ungleichungsnebenbed. x Ω Grundmenge Definition x X (P)... heißt Lösung oder zulässiger Punkt Ein x X mit f (x) = v(p) heißt (globale) Optimallösung (also f (x) f (y) y X ) Ein x X heißt lokale Optimallösung, wenn es eine (kleine) Umgebung U(x) um x gibt mit f (x) f (y) y X U(x) Beispiel (P1-P3) min x x 2 s.t. x 2 1, x R globale OL: x { 1}, lokale OL: x { 1, 1} (P4) min x x 2 s.t. x 2 = 1, x R???

Terminologie: Lösungen, globale/lokale Optimallösungen (P) Minimiere f (x) Zielfunktion unter h i (x) = 0 i E Gleichungsnebenbed. g i (x) 0 i I Ungleichungsnebenbed. x Ω Grundmenge Definition x X (P)... heißt Lösung oder zulässiger Punkt Ein x X mit f (x) = v(p) heißt (globale) Optimallösung (also f (x) f (y) y X ) Ein x X heißt lokale Optimallösung, wenn es eine (kleine) Umgebung U(x) um x gibt mit f (x) f (y) y X U(x) Beispiel (P1-P3) min x x 2 s.t. x 2 1, x R globale OL: x { 1}, lokale OL: x { 1, 1} (P4) min x x 2 s.t. x 2 = 1, x R??? ebenso

Beachte: Optimalwert gibt es nur einen, Optimallösungen u.u. viele! Oft wird Optimalwert/lösung mit einem gekennzeichnet, z.b.: Es bezeichnet f = f (x ) = inf x X f (x) x = argmin{f (x) : x X } die eindeutige Optimallösung (wenn wir schon wissen, dass es genau eine gibt), Argmin{f (x) : x X } die Menge aller Optimallösungen (diese kann auch leer sein). Optimal ist nicht steigerungsfähig, noch optimaler ist sinnlos und schlechter Sprachgebrauch!

Inhaltsübersicht für heute: Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen Lineare Optimierung Der Simplex-Algorithmus

Überblick über spezielle Klassen von Optimierungsproblemen Verfahren gibt es nur für eingeschränkte Problemklassen, diese unterscheiden sich nach den Eigenschaften der Funktionen f, g i, h i den Eigenschaften der Grundmenge Ω der Form, in der die Problemdaten gegeben sind den Ansprüchen an die Lösung (lokal/global/multikriteriell) Verfahren/Löser für viele wichtige Problemklassen gibt es auf dem NEOS Server for Optimization

Nichtlineare Optimierung (NonLinear Programming) Minimiere f (x) unter h i (x) = 0 i E g i (x) 0 i I x Ω f, g i, h i hinreichend glatt, C 1(R n ) oder C 2 (R n ), d.h., mindestens einmal oder zweimal stetig differenzierbar, E und I endliche Mengen (unendlich: Semiinfinite Opt. ) falls E = I = : freie/unrestringierte Optimierung sonst restringierte Optimierung oder Opt. mit Nebenbed. Ω = R n (meist) Ziel: lokales Optimum (aber oft schon Zulässigkeit schwer!) Anw.: Optimalsteuerung, Shape Optimization, Parameterschätzung (nichtlin.), Lösung nichtlinearer Gleichungssysteme,... Verf.: für lokal gute Konvergenz: Newton, Quasinewton,... zur Suche lokaler Mulden: Line-Search, Trust-Region, CG,... Input: Unterroutinen für Funktionswert, Gradient, (Hessematrix) Größe : einige 100 bis einige 1000 Variablen (mehr bei spez. Struktur)

Konvexe Optimierung (Convex Optimization) f, g i Ax = b I C Ziel: Anw.: Minimiere f (x) unter Ax = b g i (x) 0 x Ω konvexe Funktionen nur lineare Gleichungsnebenbedingungen! falls f, g i glatt smooth convex opt. falls f, g i nicht notw. diffb. nonsmooth convex opt. endliche Menge einfache konvexe Menge (Box[=Intervall], Rn,... ) globales Optimum Portfolio Design, Experimental Design, Optimalsteuerung, Signal Processing, Berechnung von Schranken für nichtlineare Probleme,... i I Verf.: smooth: Newton, Quasinewton,... nonsmooth: Subgradienten-, Bündel-Verfahren Input: Unterroutinen für Funktionswert, (Sub)Gradient, (Hessematrix) Größe : einige 100 bis einige 10000 Var. (mehr bei spez. Struktur)

Konvexe Opt. mit Struktur (Structured Convex Opt.) q( ) Ax = b K Ziel: Anw.: Verf.: Input: Größe : Minimiere q(x) unter Ax = b x K lineare (affine) oder konvex-quadratische Zielfunktion q(x) = c T x (+ 1 2 x T Qx mit Q symmetrisch positiv semidefinit) lineare Gleichungs- oder auch Ungleichungsnebenbedingungen konvexe Kegel spezieller Struktur q linear, K = R+: n Lineare Opt. (Linear Programming) q linear, K = Q n +: Second Order Cone Opt. (SOCP) q linear, K = S+: n Semidefinite Opt. (SemiDefnite P.) q quadrat., K = R n +: (Konvexe) Quadratische Opt. (QP) globales Optimum in kurzer Zeit Portfolio Design, Experimental Design, Optimalsteuerung, Signal Processing, Berechnung von Schranken für ganzz. Probleme,... LP, SOCP, SDP, QP: Innere-Punkte-Verf. (Newton) LP: Simplex Koeffizienten der Matrizen und Vektoren (evtl. Kegeltyp) einige 1000 bis Millionen Variablen

Ganzzahlige Optimierung (Integer Programming) Minimiere c T x unter Ax b x Z n c T x lineare Zielfunktion Ax b lineare Gleichungs- oder auch Ungleichungsnebenbedingungen x Z n nur ganzzahlige Lösungen! verwandte Varianten: Binary Integer P.: x {0, 1} n ( kombinatorische Opt.) Mixed Integer P.: x R n1 Z n2 Mixed Integer NonLinear P.: f, g i, h i nichtlin. Ziel: sehr problemabhängig (meist NP-schwer), gute Lösung mit Gütegarantie Anw.: Probleme mit Entscheidungskomponenten, z.b., Flüsse in Netzwerken, Zuweisungs-, Transport-, Standortprobleme, VLSI-Design, Basisauswahl,... Verf.: Input: Größe : konvexe/lineare Relaxation und lokale Suche/Rundungsheuristiken, exakte Lösung durch Branch and Bound (effiz. Enumerieren), für sehr spezielle Probleme: exakte Algorithmen von Koeffizienten der Matrizen bis hin zu Struktur-nutzenden Zusatzroutinen extrem problemabhängig, von unter 100 bis zu Millionen

Globale Optimierung (Global Optimization) Minimiere f (x) unter h i (x) = 0 i E g i (x) 0 i I x Ω f, g i, h i hinreichend glatt von bekannter Struktur (z.b. Polynome) so dass auf Intervallen Unterschätzer konstruierbar sind E und I (kleine) endliche Mengen Ω einfache konvexe Menge (Box) Ziel: globales Optimum (!!! i.a. zu schwer, nur sehr kleine Dimension!!!) Anw.: kleine nichtlineare Optimalsteuerungsprobleme... Verf.: Branch and Bound: pro Intervall der Unterteilung untere Schranken durch Lösung konvexer Relaxation und obere Schranken durch NLP-Löser Input: Größe : algebraische Beschreibung der Funktionen etwa 10-30 Variable (je nach spez. Struktur u.u. auch mehr)

Einige weitere Klassen/Forschungsgebiete Meist durch spezielle Anwendungsforderungen motiviert: Multikriterielle Optimierung (Mehrziel-Opt.): Bspe: Portfolio soll Gewinn maximieren und Risiko minimieren, Auto soll möglichst schnell mit möglichst wenig Treibstoff fahren, größte Stabilität bei geringstem Materialeinsatz, etc. Darstellung konkurrierende Ziele werden durch f : R n R m und eine durch einen spitzen Kegel induzierte Partialordnung auf R m. Pareto-optimale Lösung : bzgl. Partialordnung nicht verbesserbar Für m klein, Berechnung der Paretofront, sonst Rückführung auf Standardverf. durch Skalarisierung (gewichtete Linearkombination) oder lexikographisches Optimieren mittels neuer Nebenbedingungen Ableitungsfreie Optimierung (derivative-free opt.): Es ist jeweils nur f (x) bestimmbar (wird durch Simulation, Messung, Bohrung, etc. ermittelt), aber keine Ableitungsinformation f (x) billig: numerisches Differenzieren oder Verf. von Nelder-Mead f (x) teuer: Modellerstellende Verfahren (Kriging, Powell,... )

Einige weitere Klassen/Forschungsgebiete Stochastische Optimierung: Statistische Daten in Entscheidungen einbeziehen: Ein-/Ausschalten von Kraftwerken für stochstisches Verbrauchsmodell, Portfoliooptimierung für stochastische Finanzmodelle, Logistik-Optimierung nach stochastischem Bedarfsmodell oft Einteilung in gewichtete mehrstufige Szenarien, rekursives Lösen mit Standardverfahren Robuste Optimierung: Gegen Datenunsicherheit, Mindestanforderungen, oder Ungenauigkeiten in der realen Umsetzung absichern: leichteste Brücke für unterschiedliche Lasten, Entwurf von Antennen-Arrays, Mindestproduktionskapazitäten bei Maschinenausfällen geschickte Modellierung erlaubt oft den Einsatz von Standardverfahren

Inhaltsübersicht für heute: Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen Lineare Optimierung Der Simplex-Algorithmus

Lineare Optimierung Zwei typische Schreibweisen für ein Lineares Programm (LP) LP in Standardform min s.t. c T x Ax = b x 0 LP in kanonischer Form min s.t. c T x Ax b x 0 Wenn nicht anders erwähnt, dann c R n, A R m n, b R m. x 0 und Ax b sind jeweils elementweise zu vestehen, also x 0 : x R n + = {x R n : x i 0, i = 1,... n} Egal ob man minimieren oder maximieren will, Gleichungen oder Ungleichungen hat, Variablen mit oder ohne Nichtnegativitätsbedingungen hat, man kann jedes LP in so eine Form bringen.

maximieren minimieren: Umformen von LPs max c T x s.t. Ax = b, x 0 min( c) T x s.t. Ax = b, x 0 Gleichungen Ungleichungen: [ A Ax = b A ] [ x b b Ungleichungen Gleichungen: durch Schlupfvariablen s 0 ] min s.t. c T x Ax b x 0 min c T x [ ] x s.t. [A, I ] = b s x 0, s 0 [I Identität] Statt jeder freien Variable x i R zwei vorzeichenbeschränkte: x + i 0 und x i 0 mit x i = x + i x i

Kleines Beispiel zur Illustration: Mozart-Problem Maximiere den Gewinn bei Produktion von Mozart-Kugeln und -Talern: Marzipan Nougat Edelherb Gewinn Pro Kugel: 2 Teile 1 Teil 1 Teil 3 Euro Pro Taler: 1 Teil 1 Teil 2 Teile 2 Euro verfügbar: 10 Teile 6 Teile 9 Teile Variablen: x K... Anzahl Kugeln x T... Anzahl Taler max 3x K + 2x T s.t. 2x K + 1x T 10 1x K + 1x T 6 1x K + 2x T 9 x K 0, x T 0 min [ 3, 2, 0, 0, 0]x 2 1 1 0 0 s.t. 1 1 0 1 0 x = 1 2 0 0 1 x 0 [x R 5 +] 10 6 9

Anwendung: Tschebyscheff-Approximation Mathematisches Problem: Minimiere Ax b über x R n [ b := max i=1,...,m b i ist die Unendlich-Norm] min s s.t. 1s Ax b 1s 1 = [1, 1,..., 1] T Anwendung z.b. in der Filtersynthese (hier stark vereinfacht): Eine gewünschte Impulsantwort (Funktion) h : [0, 1] R soll möglichst gut durch gewichtete Addition verfügbarer Impulsantworten h i : [0, 1] R, i = 1,..., n dargestellt werden. Modellierung: Variable x i R, i = 1,..., n als Gewicht von h i, Diskretisierung von [0, 1] z.b. in Schritte t j = j/h, j = 0,..., h min s.t. s s h(t j ) n i=1 x ih i (t j ) s j = 0,..., h x R n, s R

Ähnlich: 1-Norm Minimierung Mathematisches Problem: Minimiere Ax b 1 über x R n [ b 1 := m i=1 b i ist die 1-/Manhattan-Norm] min 1 T s s.t. Is Ax b Is

Geometrische Interpretation: WH Skalarprodukt c T x c T x = c x cos α mit α Winkel zw. c und x. Für c = 1 ist (wie im Bild) c T x die Länge der Projektion von x auf die Gerade {γc : γ R} {x : c T x γ} ist der Halbraum aller Punkte, deren Projektion auf c kleiner gleich γ ist. c ist Gradient der linearen Fkt. c T x (zeigt in Richtung steilster Anstieg) a T Für A = 1. a T m x c T x T c x<g T c x=g ist Zeile j von Ax b gerade a T j x b j T c c x>g

Geometrische Interpretation: am Mozart-Problem x T Wegen x K 0 x K 0 ist [ max 3 2 ] x 2 1 1 1 [ ] s.t. 1 2 xk 1 0 x T 0 1 wieder das Mozart-Problem. 10 6 9 0 0 e 1 a 2 a 1 c a 3 x K Definition Ein Polyeder ist der Schnitt endlich vieler Halbräume. Die zulässige Menge jedes LPs ist also ein Polyeder. e 2

Geometrische Interpretation: Optimallösung Wegen x K 0 x K 0 ist [ max 3 2 ] x 2 1 1 1 [ ] s.t. 1 2 xk 1 0 x T 0 1 wieder das Mozart-Problem. Offensichtlich ist eine Ecke des Polyeders eine Optimallösung, e 2 sie erfüllt Dimension viele Ungleichungen mit Gleichheit, hier: [ 2 1 1 1 ] [ xk x T ] = 10 6 9 0 0 [ 10 6 ] e 1 x T a 2 a x K = 4, x T = 2 1 c a 3 x K

max s.t. Interpretation einer Ecke in Standardform [ 3 2 0 0 0 ] x 2 1 1 0 0 1 1 0 1 0 x = 1 2 0 0 1 10 6 9 x K 0, x T 0, s 1 0, s 2 0, s 3 0 In dieser Darstellung n = 5, m = 3 Jeder Ungleichung ist genau eine Schlupfvariable zugeordnet! (x K für x k 0 und x T für x T 0x) Wegen der m Gleichungen hat das Polyeder Dimension n m. Für eine Ecke müssen n m weitere Ungleichungen als Gleichungen gewählt werden ( Schlupfvariablen auf 0 setzen), so dass diese eindeutig einen Punkt festlegen, und für diesen der Wert der anderen Schlupfvariablen (= Abstand zur Ungleichung) nichtnegativ ist. e 1 x T a 2 a 1 e 2 c a 3 x K

Inhaltsübersicht für heute: Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen Lineare Optimierung Der Simplex-Algorithmus

Der Simplex-Algorithmus (für Standardform) Gegeben A R m n, b R m, c R n, bestimme min c T x s.t. Ax = b, x 0 Idee: Gehe von der aktuellen Ecke zu einer benachbarten besseren. Notation: Für B {1,..., n} m sei A B := [a ib(j) ] i,j=1,...,m. Wir fassen B auch als Menge von Spaltenindices auf. Definition Eine Spaltentupel B {1,..., n} m mit A B regulär heißt Basis und N := {1,..., m} \ B Nichtbasis. Ist zusätzlich A 1 B b 0 heißt die Basis zulässig. Ax = b A B x B + A N x N = b Die Nichtbasisvariablen x i, i N, werden auf 0 gesetzt, die Basisvariablen x i, i B, durch x B = A 1 B b bestimmt.

Eine benachbarte bessere Ecke finden B sei nun eine zulässige Basis, also 0 x B := A 1 B (b A N x N ) für x N := 0 Benachbarte Ecke: Eine Gleichung x i = 0 mit i N aufgeben und x i vergrößern bis die nächste Ungleichung erreicht wird. Veränderung der Zielfunktion abhängig von x N : e1 x T a1 a 2 x K ++ c T x = cb T x B + cn T x N = cb T A 1 B b + (c N A T N A T B c B) } {{ } =: z N e 2 c T xn Die reduzierten Kosten z N zeigen die Veränderung abh. von x N an. Ist z N 0 Ecke nicht verbesserbar, Optimallösung gefunden. Sonst wähle im Pricing-Schritt ein î N mit zî < 0 xî ist die (in die Basis) eintretende Variable und wird vergrößert. a3 x K

Zur Zulässigkeit muss x B = A 1 B (b A îxî) 0 bleiben, mit w := A 1 B A î muss wxî x B erfüllt sein. Ist w 0 darf xî beliebig groß werden Problem unbeschränkt. Sonst wähle im Ratio-Test { } xb(j) ĵ Argmin : w j > 0 j=1,...,m w j x B(ĵ) ist die (aus der Basis) austretende Variable. Sie wird nun im Basisaustauschschritt durch xî ersetzt, N N \ {î} {B(ĵ)}, B(ĵ) î, und der Algorithmus wird von dieser neuen Ecke aus fortgesetzt.

Das (primale revidierte) Simplex-Verfahren Input: zulässige Basis B, x B = A 1 B b 1. BTRAN: Bestimme ȳ := A T B c B durch Lösen von A T B y = c B. 2. PRICE: z N := c N A T Nȳ, ist z N 0, STOP (Optimallösung), sonst wähle î N mit zî < 0. 3. FTRAN: Bestimme w := A 1 B A î durch Lösen von A B w = Aî. 4. RATIO: Ist w 0, STOP (Problem unbeschränkt), sonst wähle { } xb(j) ĵ Argmin j=1,...,m w j : w j > 0 5. Update: x B := x B ξ w, xî := ξ, N := N \ {î} B(ĵ), B(ĵ) := î, GOTO 1., ξ := x B(ĵ) wĵ (Lösung der Glgssysteme nutzt sparsity etc., nicht invertieren!) Das Paar (ĵ, î) wird auch Pivot-Element genannt.

Endlichkeit und Kreisen In jeder Iteration mit ξ > 0 wird der Zielfunktionswert strikt besser, und der Algorithmus besucht diese Ecke nie wieder. Ist ξ = 0, wechselt man nur zu einer anderen Basisdarstellung derselben Ecke (sie liegt auf mehr als n m Ungleichungen). Bei ungünstiger Wahl in Pricing und Ratio-Test wird die gleiche Basis später wieder besucht der Algorithmus kreist. Mit den Auswahlregeln von Bland (wähle aus den erlaubten Variablen jeweils die mit kleinstem Index) wird jede Basis höchstens einmal besucht und der Algorithmus endet nach endlich vielen Iterationen. (In der Praxis nimmt man andere Auswahlregeln und nutzt Bland nur, wenn Kreisen beobachtet wird.) Hat ein LP zwei unterschiedliche Basen, die den gleichen Punkt beschreiben, nennt man das LP und derartige Basen degeneriert oder entartet. Für entartete LPs kann der Simplex-Algorithmus sehr langsam sein, dann sind Innere-Punkte-Verfahren (s. dort) meist besser.

Finden einer zulässigen Ausgangsbasis Die 2-Phasen-Methode Löse in Phase 1 das Hilfsproblem (o.b.d.a. b 0) min 1 T s zul. Basis: die Spalten von s s.t. Ax + Is = b x 0, s 0 Ist Optimalwert=0 zul. Basis des Originalproblems gefunden, löse diese in Phase 2. Liefert überprüfbaren Nachweis (Zertifikat) für (Un-)Zulässigkeit! Die Big-M Methode (o.b.d.a. b 0) min s.t. c T x + M1 T s Ax + Is = b x 0, s 0 zul. Basis: die Spalten von s Ist M > 0 groß genug, werden die s i = 0 Vorteil: sucht gleich gute Basis Nachteil: Wie groß muss M sein? In Standard-Software muss man sich darum nicht kümmern!

Mit dem Simplex-Algorithmus zeigt man Satz (Hauptsatz der Linearen Optimierung) Hat ein LP in Standardform einen endlichen Optimalwert, so wird dieser auch in einer Ecke angenommen.