4.4 Quadratische Optimierungsprobleme

Ähnliche Dokumente
Optimierung für Wirtschaftsinformatiker: Lineare Programme

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Teil I. Lineare Optimierung

1 Der Simplex Algorithmus I

3. Grundlagen der Linearen Programmierung

Optimalitätsbedingungen

Bestimmung einer ersten

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Optimalitätskriterien

Optimale Steuerung 1 Prozessoptimierung 1

Lineare (Un-)Gleichungen und lineare Optimierung

2. Optimierungsprobleme 6

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Rückblick auf die letzte Vorlesung. Bemerkung

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Lösung allgemeiner linearer Programme

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

Übungsblatt 6 Lösungsvorschläge

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

OPERATIONS-RESEARCH (OR)

Übungen zur Linearen Optimierung Sommersemester Übungsblatt 1

Studientag zur Algorithmischen Mathematik

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

1 Lineare Optimierung, Simplex-Verfahren

Lineare Algebra: Determinanten und Eigenwerte

Optimieren unter Nebenbedingungen

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

3 Optimierung mehrdimensionaler Funktionen f : R n R

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

7.1 Matrizen und Vektore

Optimierung I. Dr. Ulf Lorenz F2.413

18.2 Implizit definierte Funktionen

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Schranken für zulässige Lösungen

λ i x i λ i 0, x i X, nur endlich viele λ i 0}.

Optimierung für Nichtmathematiker

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

9 Vektorräume mit Skalarprodukt

Zahlen und metrische Räume

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009

Der Kern einer Matrix

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009

Mathematik 2 für Wirtschaftsinformatik

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Produktionsplanung und Lineare Optimierung im Rahmen des Projekts Mathematik und Ökonomie 12./13. November 2003 in Düsseldorf.

Mathematik 1 für Wirtschaftsinformatik

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Methode der kleinsten Quadrate

Lineare Programmierung Teil I

Lineare Optimierung Ergänzungskurs

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

6 Eigenwerte und Eigenvektoren

Lagrange-Relaxierung und Subgradientenverfahren

Lineare (Un-)Gleichungen und lineare Optimierung

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Proseminar Lineare Algebra II, SS 11. Blatt

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.

Extrema mit Nebenbedingungen

Überbestimmte lineare Gleichungssysteme

Funktionen mehrerer Variabler

4 Affine Koordinatensysteme

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Nichtlineare Gleichungen, mehrere Unbekannte

Lineare Optimierungsmodelle

Extremwerte von Funktionen mehrerer reeller Variabler

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

II. Nichtlineare Optimierung

Numerische Lineare Algebra

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

3. Schnittebenenverfahren

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Optimierungsalgorithmen

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

NUMERISCHE METHODEN DER OPTIMIERUNG

Lineare Algebra I (WS 13/14)

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Nichtlineare Optimierung

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

Sattelpunkt-Interpretation

Inhaltsverzeichnis. 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6

Iterative Verfahren, Splittingmethoden

Lineare Ungleichungen und die Struktur von Polyedern

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Methoden der linearen Optimierung

Konvexe Optimierung. Prof. Dr. Sven Rahmann. LS 11, Fakultät für Informatik, TU Dortmund Entwurf vom 17. Mai 2010

Transkript:

4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen (NB) sind affin Minimierung über Polyeder Beispiel 1 (Methode der kleinsten Fehlerquadrate). Ax b 2 2= x T A T Ax 2b T Ax + b T b Lösung dieses QP s lautet A b durch untere und obere Schranke ergänzt, erhält man folgendes QP: Ax b 2 2 s.t. l i x i u i, i = 1,.., n Beispiel 2 (Abstand zweier Polyeder). x 1 x 2 2 2 s.t. A 1 x 1 b 1 A 2 x 2 b 2 (x 1, x 2 R n ) P 1 = {x 1 : A 1 x 1 b 1 } und P 1 = {x 2 : A 2 x 2 b 2 } seien 2 Polyeder dist(p 1, P 2 ) := inf{ x 1 x 2 2 2: x 1 P 1, x 2 P 2 } 1

2. Quadratische Programme mit quadratischen NB (QCQP) s.t. 1 2 xt P 0 x + q0 T x + r 0 1 2 xt P i x + qi T x + r i 0, i = 1,.., m (4.35) wobei P i S n +, i = 0, 1,.., m NB sind (konvex) quadratisch P i 0: Minimierung über den Durchschnitt von Ellipsoiden 3. Second-order cone Programme (SOCP) f T x s.t. A i x + b i 2 c T i x + d i, i = 1,.., m (4.36) F x = g wobei x R n, A i R (ni n), F R (p n) A i x + b i 2 c T i x + d i heißt second-order cone constraint (A i x + b i, c T i x + d i ) R ni+1 (Lorentzkegel) Robuste lineare Programme c T x s.t. a T i x b i, i = 1,.., m Streuung in c, a i, b i zur Vereinfachung: c, b i fest und a i ε i = {a i + P i u : u 2 1} (wobei P i R (n n) ) 2

robustes LP: c T x s.t. a T i x b i a i ε i, i = 1,.., m (4.37) SOCP: s.t. c T x a T i x + P T i x 2 b i, i = 1,.., m 3

4.6 Verallgemeinerte Ungleichungs-NB Verallgemeinerung des konvexen Optimierungsproblems lautet: f 0 (x) s.t. f i (x) Ki 0, i = 1,.., m (4.48) wobei f 0 : R n R, K i R k i eigentlicher Kegel, f i : R n R k i sind K i -konvex Ungleichungs-NB sind vektorwertige Funktionen 4.6.1 Konische Probleme c T x s.t. F x + g K 0 (4.49) heißt konisches Programm, wobei ZF linear, Ungleichungs-NB affin und K-konvex (4.49) in Standardform: c T x s.t. x K 0 Beispiel 3 (SOCP). SOCP s kann man als konische Programme schreiben: c T x s.t. (A i x + b i, c T i x + d i ) Ki 0, i = 1,.., m F x = g wobei K i = {(y, t) R ni+1 : y 2 t}, d.h. der Lorentzkegel 4

4.6.2 Semidefinite Programme (SDP) SDP ist ein spezielles konisches Programm, da K = S+:, k c T x s.t. x 1 F 1 +.. + x n F n + G 0 (4.50) wobei G,F i S k (i=1,..,n) und A R (p n) (4.50) in Standardform: C, A i, X S n (i=1,..,p) tr(cx) s.t. tr(a i x) = b i, i = 1,.., p (4.51) X 0 NB bestehen aus p linearen Gleichungen und einer (Matrix) nichtnegativen Ungleichung ( n i,j=1 C ijxij) Beispiel 4 (Matrixnorm-Minimierung). geg.: A(x) = A 0 + x 1 A 1 +... + x n A n, A i R (p q) A(x) 2 wissen: A 2 s A T A s 2 I, (s 0) s s.t. A(x) T A(x) si (*) in den Variablen x und s, da A(x) T A(x) si Matrixkonvex in x und s (*) konvexes Optimierungsproblem mit einer NB, die eine q q Matrix-Ungleichung ist, umformen der Ungleichungs-NB in eine lineare Matrix Ungleichung der Größe (p + q) (p + q), in dem man [ ] ti A A T A t 2 I, (t 0) A T 0 ti ausnutzt SDP: s.t. t [ ] ti A A T 0 ti 5

4.7 Vektoroptimierung 4.7.1 Allgemeine und konvexe Vektoroptimierungsprobleme Vektoroptimierungsproblem: (w.r.t. K) f 0(x) x D s.t. f i (x) 0, i = 1,..., m (4.56) h i (x) = 0, i = 1,..., p x R n V ariable, K R q (eigentlicher Kegel), f i : R n R Ungleichungsnebenbedingungen, h i : R n R Gleichungsnebenbedingungen, f 0 : R n R q Zielfunktion (4.56) heißt konvex falls, f 0 K-konvex, f 1,..., f m konvex und h 1,..., h p affin Besonderheit: 4.7.2 Optimale Punkte und Optimalwerte Menge O der erreichbaren Zielfunktionswerte: O := {f 0 (x) x D, f i (x) 0, i = 1,..., m, h i (x) = 0, i = 1,..., p} x heißt optimal für (4.56) falls O ein Minimum hat, f 0 (x) heißt dann Optimalwert. Falls ein Vektoroptimierungsproblem einen Optimalwert hat, so ist dieser eindeutig. Satz 5. x ist optimal x zulässig und O f 0 (x ) + K In der Regel existiert kein optimales Element. 6

4.7.3 Pareto-optimale Punkte und pareto-optimale Werte Ein zulässiger Punkt x heißt pareto-optimal (bzw. effizient) für (4.56), falls f 0 (x) imales Element von O ist. f 0 (x) heißt dann pareto-optimaler Wert für (4.56). Satz 6. x po ist pareto-optimal x po zulässig und (f 0 (x po ) K) O = {f 0 (x po )} Die Menge P aller pareto-optimalen Punkte erfüllt. 4.7.4 Skalarisierung (Standardtechnik zum Finden von pareto-optimalen Punkten) Skalarisierungsproblem: λ K 0, Rest wie in (4.56). x D λt f 0 (x) s.t. f i (x) 0, i = 1,..., m (4.60) h i (x) = 0, i = 1,..., p Satz 7. x sei optimal für (4.60) x ist pareto-optimal für (4.56) Variation von λ (Gewichtungsparameter) führt zu verschiedenen pareto-optimalen Punkten (unterschiedliche Wichtigkeit in Komponenten) 7

Geometrisch: finden beim Lösen von (4.60) nicht nur einen pareto-optimalen Punkt für (4.56), sondern auch einen Halbraum im R q (stützt Menge der erreichbaren Zielfunktionswerte) bei konvexen Vektoroptimierungsproblemen Finden pareto-optimale Punkte eines konvexen Vektoroptimierungsproblems mithilfe eines (standard) konvexen Optimierungsprogramms. Satz 8. (Teilumkehrung von Satz 7.) Für jeden pareto-optimalen Punkt x po eines konvexen Vektoroptimierungsproblems, λ K 0, λ 0, sodass x po Lösung von (4.60) ist. Finden in manchen Fällen alle pareto-optimalen Punkte von (4.56). Ansonsten Beispiel 9. (Minimale obere Schranke einer Menge von Matrizen) 4.7.5 Mehrzieloptimierung/Mehrkriterienoptimierung(MCP) Spezialfall: K=R q Betrachten f 0 (x) = (F 1 (x),..., F q (x)) als Vektor von skalaren Funktionen und imieren jede Komponente. MCP heißt konvex, falls f 1,..., f m konvex, h 1,..., h p affin und die Zielfunktionen F 1,..., F q konvex. Satz 10. x ist optimal in einem MCP, falls F i (x ) F i (y), i = 1,..., q erfüllt ist (y zulässig) x ist optimal für alle Standardoptimierungsprobleme der Form: F j(x), j = 1,..., q x D s.t. f i (x) 0, i = 1,..., m h i (x) = 0, i = 1,..., p Die Zielfunktionen F 1,..., F q existiert. heißen nicht konkurrierend, falls ein optimaler Punkt x 8

Kompromissanalyse x, y zwei pareto-optimale Punkte. Teile Indizes der Zielfunktionen auf: F i (x) < F i (y), i A F i (x) = F i (y), i B F i (x) > F i (y), i C, mit A B C = {1,..., q}. Aufgabe der Kompromissanalyse: Wieviel muss ich mich in einer Komponente verschlechtern, um mich in einer anderen verbessern zu können und im Verhältnis besser zu werden. Optimale Kompromissfläche: Menge der pareto-optimalen Werte eines MCP, q 0. (q=2 Kompromisskurve) Zu Beachten: Skalarisierung von MCPs Betrachten skalarisierte Summe der Zielfunktionen: λ T f 0 (x) = q λ i F i (x) mit λ i > 0 i=1 Können die Summe beeinflussen indem wir λ i so wählen wie wir die Komponenten gewichtet haben wollen. mehrere pareto-optimale Punkte Beispiel 11. (Regularisierte Methode der kleinsten Fehlerquadrate) 9