Optimierung II. Sommersemester Literatur: C. Geiger, C. Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben, Springer, 2002
|
|
- Frank Weiß
- vor 6 Jahren
- Abrufe
Transkript
1 Optimierung II Sommersemester 2008 Page 1 of 92 Literatur: C. Geiger, C. Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben, Springer, 2002
2 Inhalt Einleitung (Begriffsbildung, Beispiele) ungen Linare Programme Innere Punkte Methoden Nichtlineare Optimierung Page 2 of 92
3 1. Einleitung: Begriffsbildung und Beispiele Auswahl der besten aus einer Vielzahl vom möglichen Entscheidungen. Optimierung (optimization, programming) Zulässigkeitsbereich (feasible set): Menge der möglichen Entscheidungen X Zielfunktion (cost function, objective): Bewertung jeder möglichen Entscheidung f : X R (Fall mehrerer konkurrierender Zielfunktionen f : X R k, k 2: Vektoroptimierung, multicriteria optimization) allgemeines Optimierungsproblem (k = 1): kurz: Gegeben: Menge X, Funktion f : X R Gesucht: x X so dass für alle x X : f(x ) f(x) min f(x) u.d.n. x X (Behandlung von Maximierungsproblemen durch f f.) Page 3 of 92
4 Nebenbedingungen X X, X (un)endlichdim. Raum (un)endlichdimensionale Opt. im weiteren: X = R n : X = R n... freie (unrestringierte) Optimierung X R n... restringierte Optimierung (Opt. mit Nebenbedingungen) (weitgehend) allg. Form der Nebenbedingungen in R n : X = X 1 X 2 X 3 X 1 = {x R n : c i (x) = 0, i I 1 }... Gleichungsrestriktionen X 2 = {x R n : c i (x) 0, i I 2 }... Ungleichungsrestriktionen X 3 = {x R n : x i Z, i I 3 }... Ganzzahligkeitsrestriktionen I 1 N, card(i 1 ) <, I 2 N (falls card(i 2 ) =... semi-infinite Optimierung), I 3 {1,... n} (falls I 3... gemischt-ganzzahlige Opt.), c i : R n R, i {1,... n} card(x) <... diskrete Optimierung, sonst stetige Optimierung Page 4 of 92
5 Klassifizierung stetiger Optimierungsprobleme Klasse Zielfunktion f Restriktionen c i Lineare Optimierung linear linear Quadratische Optimierung quadratisch linear Nichtlin.Opt. mit lin. Restr. nichtlinear linear Nichtlin.Opt. mit nichtlin. Restr. nichtlinear nichtlinear Eine Funktion f : R n R heißt linear f(x) = g T x + f 0 g R n, f 0 R quadratisch f(x) = x T Gx + g T x + f 0 G R n n, g R n, f 0 R nichtlinear sonst f oder c i nicht differenzierbar... nichtdifferenzierbare (nonsmooth) Optimierung Optimierung I: freie nichtlineare Optimierung Optimierung II: restringierte Optimierung... weitere Spezialvorlesungen Page 5 of 92
6 Lösungsbegriffe Definition 1. Sei f : X R mit X R n. Ein Punkt x X heißt (i) (globales) Minimum von f (auf X) wenn gilt x X : f(x ) f(x) (ii) striktes globales Minimum von f (auf (X) wenn gilt x X, x x : f(x ) < f(x) (iii) lokales Minimum von f (auf (X) wenn gilt U Umgebung von x : x U : f(x ) f(x) Page 6 of 92 (iv) striktes lokales Minimum von f (auf (X) wenn gilt U Umgebung von x : x U, x x : f(x ) < f(x)
7 x striktes globales Minimum x globales Minimum x striktes lokales Minimum x lokales Minimum x globales Minimum x lokales Minimum x striktes globales Minimum x striktes lokales Minimum Definition 2. Sei X R n offen und f : X R stetig differenzierbar. Ein Punkt x X heißt stationärer Punkt wenn f(x ) = 0 d.h., i {1,..., n} f x i (x ) = 0 x lokales Minimum x stationärer Punkt (siehe nächster Abschnitt) Veranschaulichung in 1-d:,,Kurvendiskussion ; in 2-d: Niveaulinien Page 7 of 92
8 2. ungen Theoretische Grundlagen: Konvexität, Projektionssatz, Trennungssätze, Farkas-Lemma Optimalitätskriterien: Tangentialkegel, Nichtlineare Restriktionen, Lineare Restriktionen, Konvexe Probleme, Fritz-John-Bedingungen, Bedingungen 2.Ordnung Page 8 of 92
9 Konvexe Mengen Definition 3.. X R n konvex : x, y X λ (0, 1) : λx + (1 λ)y X Lemma 1. (X j ) j J Familie v. konvexen Mengen j J X j konvex. Lemma 2. X konvex cl X konvex. Definition 4. x R n Konvexkombination von x 1,... x m R n : λ 1,... λ m 0, m λ i = 1 : x = i=1 m λ i x i i=1 Lemma 3.. X konvex X enthält alle Konvexkombinationen ihrer Elemente. Page 9 of 92
10 Definition 5.. Die konvexe Hülle conv(x) einer Menge X R n ist die kleinste (bzgl der Ordnungsrelation ) konvexe Menge die X enthält. Lemma 4. X R n : conv(x) = {C C R n konvex mit X C} Lemma 5. X R n : conv(x) = {x R n x 1,... x m X : x Konvexkombination von x 1,... x m } Lemma 6. X R n konvex, x 1 cl X, x 2 int X λ [0, 1) : λx 1 + (1 λ)x 2 int(x) Korollar 1. X R n konvex, int(x). (a) int(x) = int(cl(x)) (a) X = (cl(x)) Page 10 of 92
11 Konvexe Funktionen Definition 6. X R n konvex,f : X R. (a) f konvex : x, y X λ (0, 1) : f(λx + (1 λ)y) λf(x) + (1 λ)f(y); (b) f strikt konvex : x y X λ (0, 1) : f(λx + (1 λ)y) < λf(x) + (1 λ)f(y); (c) f gleichmäßig konvex : µ > 0 x, y X λ (0, 1) : f(λx + (1 λ)y) λf(x) + (1 λ)f(y) µλ(1 λ) x y 2 ; Satz 1. X R n offen und konvex, f : X R stet.diffb. (a) f konvex x, y X : f(x) f(y) f(y) T (x y); (b) f str. konv. x y X : f(x) f(y) > f(y) T (x y); (c) f glm. konv. µ > 0 x, y X : f(x) f(y) f(y) T (x y) + µ x y 2 ; Page 11 of 92
12 Monotonie und Konvexität Definition 7. X R n, F : X R n. (a) F monoton : x, y X : (x y) T (F (x) F (y)) 0; (b) F strikt monoton : x y X : (x y) T (F (x) F (y)) > 0; (a) F gleichmäßig monoton : µ > 0 x, y X : (x y) T (F (x) F (y)) µ x y 2 ; Satz 2. X R n offen und konvex, f : X R stet.diffb. f (strikt/gleichmäßig) konvex f (strikt/gleichmäßig) monoton Satz 3. X R n offen und konvex, f : X R zweimal stet.diffb. Page 12 of 92 (a) x X : 2 f pos.semidef. f konvex; (b) x X : 2 f pos.def. f str. konvex; (c) 2 f glm. pos.def. f glm. konvex; 2 f glm. pos.def. : µ > 0 x X, d R n : d T 2 f(x)d µ d 2
13 Lemma 7.. g : R n R m, h : R n R p, i {1,... m} : g i konvex, j {1,... p} : h j affin-linear, X = {x R n g(x) 0, h(x) = 0} konvex Lemma 8.. X R n konvex, f i : X R, α i > 0, i = 1,... r (a) i : f i konvex r i=1 α if i konvex. (b) i : f i konvex i : f i strikt konvex r i=1 α if i strikt konvex. Page 13 of 92
14 Optimierung mit konvexer Zielfunktion min f(x) u.d.n. x X ( ) Satz 4. X R n konvex, f : R n R stet.diffb. (a) f konvex auf X Die Lösungsmenge von ( ) ist konvex; (b) f str. konvex auf X Es gibt höchstens eine Lösung von ( ). } f glm. konvex auf X (c) Es gibt genau eine Lsg von ( ). X, X abgeschlossen Satz 5. X R n konvex, f : X R konvex, x lok. Min von (*) x glob. Min von (*). Satz 6. f : X = R n R stet.diffb. und konvex, f(x ) = 0 x glob. Min von f Page 14 of 92
15 Projektionssatz Lemma 9. X R n abgeschlossen und konvex. y R n z X : x X : y z y x. z = Proj X y... Projektion von y auf X. Satz 7.* (Projektionssatz) X R n abgeschlossen und konvex, y R n. z = Proj X y ( x X : (y z) T (x z) 0) Lemma 10. X R n abgeschlossen und konvex. x, y R n : Proj X x Proj X y x y Lemma 11. X R n abgeschlossen und konvex. x, y R n, Proj X x Proj X y : (x y) T (Proj X x Proj X y) > 0 Page 15 of 92
16 Trennungssätze Lemma 12. X R n konvex, x int(x) a 0 R n x X : a T x a T x Satz 8. (Trennungssatz) X 1, X 2 R n konvex, X 1 X 2 = a 0 R n x 1 X 1, x 2 X 2 : a T x 1 a T x 2 Lemma 13. X 1, X 2 R n konvex, X 1 abgeschlossen, X 2 kompakt X 1 +X 2 := {x 1 +x 2 x 1 X 1, x 2 X 2 } abgeschlossen und konvex Satz 9. (strikter Trennungssatz) X 1, X 2 R n konvex, X 1 abgeschlossen, X 2 kompakt, X 1 X 2 = a 0 R n, β R x 1 X 1, x 2 X 2 : a T x 1 < β < a T x 2 Page 16 of 92
17 Farkas-Lemma Definition 8. X R n Kegel (cone) : x X, λ > 0 : λx X Definition 9. a 1,... a m R n : cone(a 1,... a m ) := {x 1 a x m a m x i 0 i {1,... m}... durch a 1,... a m erzeugter Kegel Lemma 14.. A R m n X := {A T x x 0} abgeschlossener konvexer Kegel Lemma 15.* (Farkas) A R m n, b R n, dann sind äquivalent: (a) x R m : A T x = b x 0 (b) d R n : Ad 0 b T d 0 Lemma 16. (Farkas, alternative Formulierung) A R m n, b R n, dann gilt: entweder x R n : A T x = b x 0 oder d R n : Ad 0 b T d < 0 Page 17 of 92
18 Tangentialkegel X R n Definition 10. d R n tangential zu X im Punkt x X : (x k ) k N X, (t k ) k N R : x k x k x x, t k 0, d t k Tangentialkegel von X in x: T X (x) := {d R n d tang. zu X im Pkt x} Lemma 17. x X T X (x) abgeschlossen. Lemma 18. f : R n R stetig diffbar x lok.min. v. min f(x) u.d.n. x X d T X (x) : f(x ) T d 0 }{{} x stationärer Punkt X = {x R n g i (x) 0, i = 1,..., m, h j (x) = 0, j = 1,... p} Definition 11. linearisierter Tangentialkegel von X in x X: T lin (x) := {d R n g i (x) T d 0, i I(x), h j (x) T d = 0, j = 1,... p} Menge der aktiven UngleichungsNB I(x) = {i {1,..., m} g i (x) = 0} Lemma 19. x X T X (x) T lin (x) Definition 12. Abadie constraint qualification : T X (x) = T lin (x) Page 18 of 92
19 Lagrangefunktion und Karush-Kuhn-Tucker Bed. min f(x) u.d.n. g i (x) 0 i = 1,... m, ( ) h j (x) = 0 j = 1,... p Definition 13. Lagrangefunktion L : R n R m R p R: m p L(x, λ, µ) := f(x) + λ i g i (x) + µ j h j (x) i=1 j=1 Definition 14. Karush-Kuhn-Tucker Bedingungen: x L(x, λ, µ) = f(x) + m i=1 λ i g i (x) + p j=1 µ j h j (x) = 0 h(x) = 0 λ 0, g(x) 0, λ T g(x) = 0 (KKT ) (x, λ, µ ) KKT-Punkt : (x, λ, µ ) erfüllt (KKT ). λ, µ... Lagrange-Multiplikatoren, λ T g(x ) = 0... Komplementaritätsbed. Satz 10.* x lokales Min. von ( ) in dem die Abadie CQ erfüllt sind. Dann existieren λ, µ sodass (x, λ, µ ) KKT-Punkt ist. Page 19 of 92
20 Nichtlineare Restriktionen x X, I(x ) = {i {1,..., m} g i (x ) = 0} Lemma 20. h j (x ), j = 1,... p linear unabhängig. d R n mit g i (x ) T d < 0, i I(x ), h j (x ) T d = 0, j = 1,... p. Dann existiert ε > 0 und Kurve x : ( ε, +ε) R n sodass: (a) x stetig diffbar. auf ( ε, +ε) (b) t [0, +ε) : (c) x(0) = x (d) x (0) = d x(t) X Page 20 of 92
21 Mangasarian-Fromowitz CQ/ Linear independence CQ Definition 15. x X erfüllt die Mangasarian-Fromowitz CQ (MFCQ) : (a) h j (x ), j = 1,... p linear unabhängig. (b) d R n : g i (x ) T d < 0, i I(x ), h j (x ) T d = 0, j = 1,... p Satz 11. x lokales Min. von ( ) in dem die MFCQ erfüllt sind. Dann existieren λ, µ sodass (x, λ, µ ) KKT-Punkt ist. Definition 16. x X erfüllt die linear independence CQ (LICQ) : g i (x ), i I(x ), h j (x ), j = 1,... p linear unabhängig. Satz 12. x lokales Min. von ( ) in dem die LICQ erfüllt sind. Dann existieren λ, µ sodass (x, λ, µ ) KKT-Punkt ist. λ, µ sind eindeutig. Page 21 of 92
22 Lineare Restriktionen min f(x) u.d.n. a T i x α i i = 1,... m, b T j x = β ( lin) j j = 1,... p Karush-Kuhn-Tucker Bedingungen: f(x) + m i=1 λ ia i + p j=1 µ jb j = 0 b T j x = β j j = 1,... p λ i 0, a T i x α i, λ i (a T i x α i) = 0 i = 1,... m Satz 13. x lokales Min. von ( lin ). Dann existieren λ, µ sodass (x, λ, µ ) KKT-Punkt ist. (KKT lin) Page 22 of 92
23 Konvexe Probleme f, g i stet.diffb. und konvex. min f(x) u.d.n. g i (x) 0 i = 1,... m, b T j x = β ( kon) j j = 1,... p Definition 17. ( kon ) erfüllt die Slater-Bedingung : ˆx R n : g i (ˆx) < 0, i = 1,..., m, b T j ˆx = β j, j = 1,... p Karush-Kuhn-Tucker Bedingungen: f(x) + m i=1 λ i g i (x) + p j=1 µ jb j = 0 b T j x = β j j = 1,... p (KKT kon) λ i 0, g i (x) 0, λ i g i (x) = 0 i = 1,... m Satz 14. x lokales(=globales) Min. und die Slater-Bed. sei erfüllt. Dann existieren λ, µ sodass (x, λ, µ ) KKT-Punkt ist. Satz 15. (x, λ, µ ) KKT-Punkt x lokales(=globales) Min. Korollar 2. g i affin linear, i = 1,..., m. Dann gilt: λ, µ : (x, λ, µ ) KKT-Punkt x lokales(=globales) Min. Page 23 of 92
24 Sattelpunkte Definition 18.. (x, λ, µ ) R n R m R p mit λ 0 Sattelpunkt der Lagrangefkt. : (x, λ, µ) R n R m R p, λ 0 : L(x, λ, µ) L(x, λ, µ ) L(x, λ, µ ) Satz 16.* (Sattelpunkt-Theorem) (x, λ, µ ) KKT-Punkt von ( kon ) (x, λ, µ ) Sattelpunkt von L Korollar 3. (a) (x, λ, µ ) Sattelpunkt von L x glob. Min von ( kon ) (b) Slater-Bed. erfüllt und x lokales(=globales) Min. von ( kon ) (x, λ, µ ) Sattelpunkt von L (c) g i affin linear, i = 1,..., m. Dann gilt: ( λ, µ : (x, λ, µ ) Sattelpkt. v. L) (x lok.(=glob.) Min. v. ( kon )) Page 24 of 92
25 Fritz John - Bedingungen allg. Problem ( ); x X, I(x ) = {i {1,..., m} g i (x ) = 0} Lemma 21.. x lok. Min. v. ( ), h j (x ), j = 1,... p linear unabhängig. Dann gilt d R n, g i (x ) T d < 0, i I(x ), h j (x ) T d = 0, j = 1,... p : f(x ) T d 0 Definition 19. Fritz John - Bedingungen: r f(x) + m i=1 λ i g i (x) + p j=1 µ j h j (x) = 0 h(x) = 0 r 0, λ 0, g(x) 0, λ T g(x) = 0 (F J) (r, x, λ, µ ) Fritz John-Punkt : (r, x, λ, µ ) erfüllt (F J). Satz 17. (Fritz John - Bedingungen) x lokales Min. von ( ). Dann exist. (r, λ, µ ) (0, 0, 0) sodass (r, x, λ, µ ) FJ-Punkt ist. Page 25 of 92
26 Bedingungen 2.Ordnung (x, λ, µ ) KKT Punkt: I(x ) = I 0 (x ) I > (x ) I 0 (x ) = {i I(x ) λ i = 0} I >(x ) = {i I(x ) λ i > 0} T 0 (x ) := {d R n h j (x ) T d = 0, j = 1,..., p} T 1 (x ) := {d R n g i (x ) T d = 0, i I(x )} T 0 (x ) T 2 (x ) := {d R n g i (x ) T d = / 0, i I >/0 (x )} T 0 (x ) T 3 (x ) := {d R n g i (x ) T d = 0, i I > (x )} T 0 (x ) λ i + g i (x ) 0, i = 1,..., m }{{} strikte Komplementarität T 1 (x ) = T 2 (x ) = T 3 (x ) Satz 18. (notwendige Bedingung 2.Ordnung) x lok. Min. v. ( ), LICQ erfüllt. Dann gilt mit λ, µ gem. Satz 12: d T 2 (x ) : d T 2 xxl(x, λ, µ )d 0 Satz 19.* (hinreichende Bedingung 2.Ordnung) (x, λ, µ ) KKT-Pkt. und d 0 T 2 (x ) : d T 2 xxl(x, λ, µ )d > 0 Dann ist x striktes lokales Min. von ( ) Page 26 of 92
27 3. Lineare Programme LP in Normalform: c R n, A R p n, b R p (LP ) min c T x u.d.n. Ax = b, x 0 Theoretische Grundlagen: Polyeder und Ecken, Dualität und Optimalität, Fehlerschranke von Hoffmann Simplex-Verfahren: Simplex-Schritt, Simplex-Verfahren, Zyklenvermeidung, Start, Komplexität Page 27 of 92
28 Polyeder Definition 20. A R p n, Ã R p ñ, B R m ñ, b R p, b R p, d R p P = {x Rñ Ãx = b, Bx d}... Polyeder. P = {x R n Ax = b, x 0}... Polyeder in Normal-(Standard-)form Definition 21. x Ecke eines Polyeders P (in Normalform) : λ (0, 1), x 1, x 2 P : x = λx 1 + (1 λ)x 2 x = x 1 = x 2 Satz 20. P Polyeder in NF, x P, Ī(x) := {i {1,..., n} x i > 0}. x Ecke von P die Spalten (a i ) i Ī(x) von A sind linear unabhängig. Definition 22. P Polyeder in NF, x P... Basisvektor von P : I {1,..., n}, card(i) = p : ( j {1,..., n}\i : x j = 0) (a i ) i I l.u. Satz 21. P Polyeder in NF, Rang(A) = p. Dann gilt: x Ecke v. P x Basisvektor v. P Page 28 of 92
29 Satz 22.* P Polyeder in NF, Rang(A) = p. Dann gilt: (a) Falls P so besitzt P mindestens einen Basisvektor. (b) P hat höchstens endlich viele Basisvektoren. (c) Falls (LP ) eine Lösung hat, dann gibt es auch eine Lösung, die Basisvektor ist. Page 29 of 92
30 Dualität und Optimalität (LP ) min c T x u.d.n. Ax = b, x 0... primales Problem (DP ) max b T λ u.d.n. A T λ c... duales Problem (DP ) max b T λ u.d.n. A T λ + s = c, s 0 Satz 23. Folgende Aussagen sind äquivalent: (a) x löst (LP ) (b) (λ, s ) löst (DP ) (c) (x, λ, s ) : A T λ + s = c Ax = b x 0, s 0, x T s = 0... Optimalitätsbed. Satz 24.* (Schwache Dualität) x zulässig für (LP ) und λ zulässig für (DP ) b T λ c T x Korollar 4. x zulässig für (LP ) und λ zulässig für (DP ). Dann gilt: b T λ = c T x x löst (LP ) und λ löst (DP ). Page 30 of 92
31 inf(p ) := inf{c T x Ax = b, x 0} sup(d) := sup{b T λ A T λ c} Satz 25.* (Starke Dualität) (LP ) lösbar oder (DP ) lösbar inf(p ) = sup(d) Satz 26. (Existenz) inf(p ) R (LP ) lösbar. sup(d) R (DP ) lösbar. Satz 27.. Sind die Zulässigkeitsbereiche von (LP ) und von (DP ) beide nichtleer, so sind (LP ) und (DP ) beide lösbar. Page 31 of 92
32 Fehlerschranke von Hoffmann Lemma 22. e i R n... i-ter Einheitsvektor, e = (1,..., 1) T R 2n, B R 2n n Matrix, in deren Zeilen alle Kombinationen von ±1 stehen. F := {e 1,..., e n } { e 1,..., e n }. Dann gilt: {u R n Bu e} = {u R n u 1 1} = conv(f ) Satz 28. (Fehlerschranke von Hoffmann) P b := {x R n Ax b} Korollar 5. A R p n C A > 0 b R p s.d. P b x R n : min x P b x x C A max{0, Ax b} A R p n κ A > 0 b R p s.d. P b x R n : dist Pb (x ) κ A max{0, Ax b} Korollar 6. P b,d := {x R n Ax b, Bx = d} A R p n, B R m n κ A,B > 0 b R p, d R m s.d. P b,d x R n : dist Pb (x ) κ A,B (max{0, Ax b}, Bx d) T Page 32 of 92
33 Simplex-Schritt x Basisvektor, I = (i 1,..., i p ), J = {1,..., n} \ I, (a i ) i=1,...,n Spalten von A, B := (a i ) i I R p p, N := (a j ) j J R p n p v R n : v I := (v i ) i I, v J := (v j ) j J Lemma 23. y := B T c I R p, u j := c j a T j y, j J. Damit gilt: Lemma 24. y, u wie oben, d (r) j j J : u j 0 x löst (LP ) := B 1 a r. Damit gilt: ( r J : u r < 0 i I : d (r) i 0) (LP ) nicht lösbar Satz 29. y, u, d (r) wie oben. r J : u r < 0 i I : d (r) i > 0 x x i ˆtd i i I \ {s} i s arg min, ˆt := x s i I,d (r) i >0 d d s x neu i := ˆt i = r i 0 sonst (a) x neu ist Basisvektor mit Indexmenge I neu := (I {r}) \ {s}. (b) Für den Zielfunktionswert gilt: c T x neu c T x. (c) Falls x nicht entartet ist gilt: c T x neu < c T x. Page 33 of 92
34 Page 34 of 92
35 Simplex-Verfahren k = 0: Wähle x 0 R n Basisvektor von P mit Indexmenge I 0 ; setze J = {1,..., n} \ I 0, B 0 = (a i ) i I0 For k = 0, 1, 2... Berechne die Lsg. y k R p des lin. Glsys Bk T y = c I k. Berechne u k j = c j a T j yk, j J k. Falls j J k : u k j 0 STOP I. Wähle r k J k mit u k r k < 0. Berechne die Lsg. d k R p des lin. Glsys B k d = a rk. Falls i I k : d k i 0 STOP II. Wähle Berechne x k i s k arg min i I k,d k i >0 d k. i ˆt k = xk s k d k s k. x k+1 i = x k i ˆt k d k i i I k \ {s k } ˆt k i = r k 0 sonst Setze I k+1 = (I k {r k }) \ {s k }, J k+1 = {1,..., n} \ I k+1, B k+1 = (a i ) i Ik+1. Page 35 of 92
36 Satz 30.. (a) Alle vom Simplex-Verf. erzeugten x k sind Basisvektoren von P. (b) Bricht das Simplex-Verf. bei STOP I ab, so ist x k Lösung von (LP ) (und (y k, u k ) mit u k i := 0, i I k Lösung von (DP )). (c) Bricht das Simplex-Verf. bei STOP II ab, so ist (LP ) nicht lösbar. (d) Wenn alle vom Simplex-Verfahren erzeugten Basisvektoren x k nicht entartet sind, so bricht es nach endlich vielen Schritten bei STOP I oder STOP II ab. Page 36 of 92
37 Page 37 of 92
38 Zyklenvermeidung Bland sche Zusatzregel k = 0: Wähle x 0 R n Basisvektor von P mit Indexmenge I 0 ; setze J = {1,..., n} \ I 0, B 0 = (a i ) i I0 For k = 0, 1, 2... Berechne die Lsg. y k R p des lin. Glsys Bk T y = c I k. Berechne u k j = c j a T j yk, j J k. Falls j J k : u k j 0 STOP I. Wähle r k J k minimal mit u k r k < 0. Berechne die Lsg. d k R p des lin. Glsys B k d = a rk. Falls i I k : d k i 0 STOP II. Wähle Berechne s k = min(arg min x k i i I k,d k i >0 d k i ˆt k = xk s k d k s k. x k+1 i = ). x k i ˆt k d k i i I k \ {s k } ˆt k i = r k 0 sonst Setze I k+1 = (I k {r k }) \ {s k }, J k+1 = {1,..., n} \ I k+1, B k+1 = (a i ) i Ik+1. Page 38 of 92
39 Satz 31.. (a) Alle vom SV & Bland-Regel erzeugten x k sind Basisvektoren von P. (b) Bricht das SV & Bland-Regel bei STOP I ab, so ist x k Lösung von (LP ) (und (y k, u k ) mit u k i := 0, i I k Lösung von (DP )). (c) Bricht das SV & Bland-Regel bei STOP II ab, so ist (LP ) nicht lösbar. (d) Das SV & Bland-Regel bricht es nach endlich vielen Schritten bei STOP I oder STOP II ab. Page 39 of 92
40 Start o.b.d.a. b 0 Satz 32. (Phase I des Simplex-Verfahrens) (a) (LP P I ) min e T z u.d.n. Ax + z = b, x 0, z 0 ( ) ( ) x 0 = ist BV von (LP z b P I ) mit I = {n + 1,..., n + p}. (b) (LP P I ) ist lösbar. ( ) x (c) Bezeichne z einen optimalen BV f. (LP P I ). { z 0 P = z = 0 Rang(A) = p x BV v.(lp ) Page 40 of 92
41 Satz 33. (Big M-Methode) (LP M ) min c T x + Me T z u.d.n. Ax + z = b, x 0, z 0 ( ) ( ) x 0 (a) = ist BV von (LP z b P I ) mit I = {n + 1,..., n + p}. ( ) x (b) Ist Lsg. von (LP M ), mit z = 0, so ist x Lsg von (LP ) z (c) Sei (LP ) lösbar. Dann gilt: M > 0 M > M : (LP M ) lösbar und für alle Lsgn ( ) x ist z = 0. z Page 41 of 92
42 Komplexität Maximale Anzahl der Ecken k ST OP ( p m ) Beispiel (Klee&Minty): ν N : k ST OP > (pn) ν polynomiale Komplexität im Mittel Ellipsoid-Algoritmus von Khachian, Innere-Punkte-Methode von Karmakar (LP ) nicht NP-vollständig. Page 42 of 92
43 4. Innere Punkte Methoden Theoretische Grundlagen: Der zentrale Pfad, Prinzip der Innere Punkte Methoden Pfadverfolgung: zulässiges Verfahren, unzulässiges Verfahren, Semidefinite Programme Glättungsverfahren: Glättungsfunktionen, Konvergenzanalyse Page 43 of 92
44 Der zentrale Pfad (LP ) min c T x u.d.n. Ax = b, x 0... primales Problem (DP ) max b T λ u.d.n. A T λ + s = c, s 0... duales Problem ungen: A T λ + s = c Ax = b x 0, s 0, x i s i = 0 Barriereprobleme: (LBP ) gestörte Optimalitätsbed. (τ > 0): A T λ + s = c Ax = b (CP ) x>0, s>0, x i s i = τ τ (x τ, λ τ, s τ ) Lsg.v. (CP)... zentraler Pfad min c T x τ n i=1 log(x i) u.d.n. Ax = b, x > 0 (DBP ) max b T λ τ n i=1 log(s i) u.d.n. A T λ + s = c, s > 0 Page 44 of 92
45 Satz 34. τ > 0. Dann sind folgende Aussagen äquivalent: (a) Das primale Barriereproblem (LBP ) hat eine Lösung x τ. (b) Das duale Barriereproblem (DBP ) hat eine Lösung (λ τ, s τ ). (c) Die zentrale Pfad-Bedingung (CP ) hat eine Lösung (x τ, λ τ, s τ ) F := {(x, λ, s) Ax = b, x 0, A T λ + s = c, s 0}... (primal-dual) zulässige Menge F o := {(x, λ, s) Ax = b, x > 0, A T λ + s = c, s > 0}... (primal-dual) strikt zul. Menge Page 45 of 92 Satz 35. F o τ > 0 x τ Lösung von (LBP ). Satz 36.* F o τ > 0 (x τ, λ τ, s τ ) Lösung von (CP ). x τ, s τ eindeutig. Falls Rang(A) = p ist auch λ τ eindeutig.
46 Prinzip der Innere Punkte Methoden F τ (x, λ, s) := }{{} =:w A T λ + s c Ax b XSe τe X := diag(x 1,..., x n ) S := diag(s 1,..., s n ) e := (1,..., 1) T Newtonverfahren für F τ (x, λ, s) = 0 x > 0, s > 0 0 A T E p F τ(x, λ, s) := A 0 0 S 0 X Page 46 of 92 Satz 37. x > 0, s > 0, Rang(A) = p τ > 0 : F τ(x, λ, s) regulär
47 Ein allgemeines Innere-Punkte Verfahren k = 0: Wähle w 0 = (x 0, λ 0, s 0 ) T F o, ε (0, 1) While µ k := x kt s k /n > ε do: Wähle σ k [0, 1], setze τ k := σ k µ k Berechne die Lsg. w k := ( x k, λ k, s k ) T des lin. Glsys. (NG) 0 A T I A 0 0 S k 0 X k x λ s = A T λ k s k + c Ax k + b X k S k e + τ k e Setze w k+1 = w k + t k w k mit t k > 0 so dass x k+1 > 0, s k+1 > 0. Setze k = k + 1. (x k (t), λ k (t), s k (t)) T := (x k, λ k, s k ) T + t( x k, λ k, s k ) T, µ k (t) := x k (t) T s k (t)/n. Lemma 25. Für die Lösung ( x k, λ k, s k ) T von (NG) gilt: (a) ( x k ) T s k = 0 Page 47 of 92 (b) µ k (t) = (1 t(1 σ k ))µ k
48 Satz 38. Sei ε (0, 1) und (µ k ) k N eine Folge sodass δ (0, 1], ω, κ > 0 existieren mit µ 0 ε κ Dann existiert ein K N mit µ k+1 (1 δn ω ) µ k k = 0, 1, 2,... K = O(n ω log ε ) k K : µ k ε Page 48 of 92
49 Ein zulässiges Pfadverfolgungs - Verfahren N (γ) := {(x, λ, s) F o i {1,... n} : x i s i γ x T s/n} }{{} =µ k = 0: Wähle γ (0, 1), 0 < σ min < σ max < 1, ε (0, 1) w 0 = (x 0, λ 0, s 0 ) T N (γ), While µ k := x kt s k /n > ε do: Wähle σ k [σ min, σ max ], setze τ k := σ k µ k Berechne die Lsg. w k := ( x k, λ k, s k ) T des lin. Glsys. (NG) 0 A T I A 0 0 S k 0 X k x λ s = 0 0 X k S k e + τ k e Setze w k+1 = w k + t k w k mit t k > 0 max. s.d. w k+1 N (γ) Setze k = k + 1. Page 49 of 92
50 Lemma 26. u, v R n, u T v 0, U := diag(u 1,..., u n ), V := diag(v 1,..., v n ). Dann gilt UV e 2 3/2 u + v 2 Lemma 27. (x k, λ k, s k ) N (γ). Dann gilt X k S k e 2 3/2 (1 + 1/γ)nµ k Lemma 28. (x k, λ k, s k ) N (γ), t k := 2 3/2 γ 1 γ 1+γ σ k/n. Dann gilt Satz 39. t [0, t k ] : δ > 0 k k stop : (x k (t), λ k (t), s k (t)) N (γ) µ k+1 (1 δ/n)µ k Satz 40. Es existiere κ > 0 sodass µ 0 ε κ. Dann existiert ein K N mit K = O(n ω log ε ) sodass Page 50 of 92 k K : µ k ε
51 Ein unzulässiges Pfadverfolgungs - Verfahren r (k) b r c (k) := Ax (k) b := A T λ (k) + s (k) c N (γ, β) := {(x, λ, s) x > 0, s > 0, i {1,... n} : x i s i γµ, (r b, r c ) / (r 0 b, r 0 c) βµ/µ 0 } k = 0: Wähle γ (0, 1), β 1, 0 < σ min < σ max 0.5, ε (0, 1) w 0 = (x 0, λ 0, s 0 ) T N (γ, β) While µ k := x kt s k /n > ε do: Wähle σ k [σ min, σ max ] Berechne die Lsg. w k := ( x k, λ k, s k ) T des lin. Glsys. (NG) 0 A T I A 0 0 S k 0 X k x λ s = r k c r k b X k S k e + σ k µ k e Setze w k+1 = w k + t k w k mit t k > 0 max. s.d. w k+1 N (γ, β) u. µ k (t) (1 0.01t)µ k Setze k = k + 1. Page 51 of 92
52 Satz 41. (ohne Beweis) (a) µ k konvergiert Q-linear gegen Null. (b) (r k b, rk c ) konvergiert R-linear gegen Null. Page 52 of 92
53 Semi-Definite Programme S n n := {A R n n A symmetrisch} S+ n n := {A R n n A positiv semidefinit} S++ n n := {A R n n A positiv definit} A 0 : A S+ n n A, B := n n A B = a ij b ij A F := A A A i R n n, i = 1,... p, b R p min C X (SDP ) u.d.n. A i X = b i, i = 1,... p X 0 max b T λ (DDP ) u.d.n. p i=1 λ ia i + S = C S 0 i=1 j=1 Page 53 of 92
54 inf(p ) := inf{c X A i X = b i, i = 1,... p, X 0} p sup(d) := sup{b T λ λ i A i + S = C, S 0} i=1 Satz 42. (Schwache Dualität für SDPs): sup(d) inf(p ) Satz 43. (Starke Dualität für SDPs) Es existiere strikt zulässiges ( ˆX, ˆλ, Ŝ), d.h. A i X = b i, i = 1,... p, ˆX 0, p i=1 λ ia i + S = C, S 0. Dann gilt (a) (SDP ) lösbar und (DDP ) lösbar. (b) sup(d) = inf(p ) Page 54 of 92
55 Innere Punkte Verfahren für SDPs ungen: p i=1 λ ia i + S = C A i X = b i, i = 1,... p X 0, S 0, SX = 0 gestörte Optimalitätsbed. (τ > 0): p i=1 λ ia i + S = C A i X = b i, i = 1,... p X 0, S 0, SX = τi Newton-Verfahren: (X k+1, λ k+1, S k+1 ) = (X k, λ k, S k )+t k ( X k, λ k, S k ) t k so dass X k+1 0, S k+1 0 p λ i A i + S i=1 A i X S k X + X k S = p λ k i A i + S k C =: rc k i=1 = A i X k + b i =: rb k i, i = 1,... p = τi S k X k Page 55 of 92
56 Start mit zulässigem (X 0, λ 0, S 0 ) ( r k C = 0, rk b = 0); Projekton von X k auf S n n : M k λ = c k p X k = τ k (S k ) 1 X k + λ k i (S k ) 1 A i X k X k = 1 2 ( X k + X kt ) p S k = λ k i A i i=1 mit m k ij := Spur(A i (S k ) 1 A j X k ), c k i := Spur(A i X k τ k A i (S k ) 1 ) i=1 Page 56 of 92 Satz 44. X k, S k S++ n n, A 1,..., A p S n n l.u. M k S++ n n
57 Glättungsverfahren ungen: A T λ + s = c Ax = b x 0, s 0, x T s = 0 Definition 23. ϕ : R 2 R heißt NCP-Funktion : α, β R : ϕ(α, β) = 0 α 0, β 0, αβ = 0 φ(x, s) := (ϕ(x 1, s 1 ),..., ϕ(x n, s n )) T R n ; Φ : R n R p R n R n R p R n Φ(w) := Φ(x, λ, s) := A T λ + s c Ax b φ(x, s) Page 57 of 92 Satz 45. w = (x, λ, s ) Lsg. d. Optimalitätsbed. Φ(w ) = 0
58 Beispiele für NCP-Funktionen: Minimum-Funktion ϕ(α, β) = 2 min{α, β} Fischer-Burmeister-Fkt. ϕ(α, β) = a + b a 2 + b 2 Penalized Minimum-Fkt. ϕ(α, β) = λ2 min{α, β} +(1 λ)α + β + Penalized Fischer-Burmeister-Fkt. ϕ(α, β) = λ(a + b a 2 + b 2 ) +(1 λ)α + β + ϕ nicht differenzierbar ϕ ϕ τ mit differenzierbarem ϕ τ. Beispiele für geglättete NCP-Funktionen: Gegl. Min.-Fkt ϕ τ (α, β) = α + β (α β) 2 + 4τ 2 Gegl. F-B-Fkt. ϕ τ (α, β) = α + β α 2 + β 2 + 2τ 2 Gegl. Pen. Min.-Fkt. ϕ τ (α, β) = λ(α + β (α β) 2 + 4τ 2 ) +(1 λ) α 2 +β τ 2 Gegl. Pen. F-B-Fkt. ϕ τ (α, β) = λ(α + β α 2 + β 2 + 2τ 2 ) +(1 λ) α 2 +β τ 2 Page 58 of 92
59 Lemma 29.. (a) C > 0 τ > 0 α, β R : ϕ(α, β) ϕ τ (α, β) C τ. (b) κ > 0 τ > 0 w R n R p R n : Φ(w) Φ τ (w) κ τ. Newtonverfahren für Φ τ (w) = 0: 0 A T I Φ (w) = A 0 0 D α 0 D β D α/β = diag ( ϕτ α/β (x 1, s 1 ),..., ) ϕ τ α/β (x n, s n ) Satz 46. Rang(A) = p, dann gilt: τ > 0 w R n R p R n : Φ τ(w) regulär Satz 47.* Φ τ... gegl. Min.Fkt. oder gegl. F-B-Fkt. Dann gilt A T λ + s = c Φ τ (w) = 0 Ax = b x > 0, s > 0, x i s i = τ 2 (CP ) Page 59 of 92
60 Globale Konvergenz eines Glättungsverfahrens N (β) := {w τ > 0 : Φ τ (w) βτ} Ψ τ (w) := 1 2 Φ τ(w) 2 k = 0: Wähle w 0 = (x 0, λ 0, s 0 ) T, τ 0 > 0, β Φ τ0 (w 0 ) /τ 0 ρ, σ (0, 1), ε (0, 1) While Φ τk (w k ) > ε do: Berechne Lsg. w k := ( x k, λ k, s k ) T des lin. Glsys. (NG) Φ τ k (w k ) w k = Φ τk (w k ) Berechne t k = max{ρ l l = 0, 1, 2,...} s.d. Ψ τk (w k + t k w k ) Ψ τk (w k ) + t k σ Ψ τk (w k ) T w k Setze w k+1 = w k + t k w k Bestimme γ k = max{ρ l l = 0, 1, 2,...} s.d. Φ (1 γk )τ k (w k+1 ) β(1 γ k )τ k Setze τ k+1 = (1 γ k )τ k. Setze k = k + 1. Page 60 of 92
61 Lemma 30. Sei Rang(A) = p. Dann ist obiger Algoritmus wohldefiniert und erzeugt Folgen (w k ) k N, (τ k ) k N mit k N : Φ τk (w k ) βτ k. Satz 48. Die durch obigen Algoritmus erzeugte Folgen (w k ) k N habe einen Häufungspunkt. Dann gilt τ k 0 für k. Satz 49.. Jeder Häufungspunkt von (w k ) k N ist Lösung der Optimaltitätsbedingungen. Page 61 of 92
62 5. Nichtlineare Optimierung min f(x) u.d.n. g i (x) 0 i = 1,... m, (NLP ) h j (x) = 0 j = 1,... p x L(x, λ, µ) = f(x) + m i=1 λ i g i (x) + p j=1 µ j h j (x) = 0 h(x) = 0 λ 0, g(x) 0, λ T g(x) = 0 Quadratische Programme Penalty- und Barriere-Methoden Exakte Penalty-Funktionen Multiplier-Penalty-Methoden SQP Verfahren (KKT ) Page 62 of 92
63 Quadratische Programme Probleme ohne Ungleichungsrestriktionen min f(x) = 1 2 xt Qx + c T x + γ u.d.n. b T j x = β j Qx + c + p j=1 µ jb j = 0 b t j (x) = β j j = 1,... p j = 1,... p } (KKT lin gl ) } (QP lin gl ) Satz 50. x k zulässig für (QP lin gl ), B T := (b 1,..., b p ), β := (β 1,..., β p ) T. Dann ist (x, µ ) genau dann KKT-Punkt, wenn ( x, µ ) := (x x k, µ ) das Gleichungssystem ( ) ( ) ( ) Q B T x f(x = k ) B 0 µ 0 löst. Page 63 of 92
64 Probleme mit Ungleichungsrestriktionen: Aktive Indexmengen Strategie min f(x) = 1 2 xt Qx + c T x + γ u.d.n. a T i x α i i = 1,... m, b T j x = β (QP ) j j = 1,... p A k I(x k ) := {i {1,... m} a T i x k = α i } A T k := (a i ) i Ak, B T := (b j ) j {1,...,p} Page 64 of 92
65 k = 0: Wähle x 0 zulässig, λ 0, µ 0, A 0 := {i {1,... m} a T i x0 = α i } While ((x k, λ k, µ k ) nicht KKT-Punkt) do: Setze λ k+1 i := 0 i A k und berechne Lsg. ( x k, λ k+1 A k, µ k+1 ) T von Q A T k B T x f(x k ) A k 0 0 λ Ak = 0 B 0 0 µ 0 Falls x k = 0 und λ k+1 0: STOP Falls x k = 0 und λ k+1 0: Wähle q argmin{λ k+1 i i A k }, Setze A k+1 := A k \ {q}, x k+1 := x k. Falls x k 0 und x k + x k zulässig, Setze A k+1 := A k, x k+1 := x k + x k Falls x k 0 und x k + x k unzulässig: Wähle r argmin{t (i) k i A k, a T i xk > 0} mit t (i) k Setze A k+1 := A k {r}, x k+1 := x k + t (r) k xk Setze k = k + 1. := α i a T i xk a T i xk, Page 65 of 92
66 Satz 51.. (a) Q pos. def. und (a i ) i Ak, (b j ) j {1,...,p} l.u. Dann ist das lin.glsys. in obigem Algoritmus eindeutig lösbar. (b) (a i ) i Ak, (b j ) j {1,...,p} l.u. (und kein Abbruch bei STOP) Dann gilt: (a i ) i Ak+1, (b j ) j {1,...,p} l.u. (c) Q pos. def. und x k 0. Dann gilt f(x k ) T x k < 0 Page 66 of 92
67 Penaltyverfahren P (x; α) = f(x) + α h(x), max{0, g(x)} 2 k = 0: Wähle α 0 > 0 While ( h(x k ), max{0, g(x)} > ɛ) do: Bestimme x k als Lösung des unrestr. Opt.Probl. min x P (x, α k ) Wähle α k+1 > α k. Setze k = k + 1. Satz 52. Sei X = {x R n h(x) = 0, g(x) 0}, α k (a) P (x k ; α k ) monoton wachsend (b) h(x k ), max{0, g(x k )} monoton fallend (c) f(x k ) monoton wachsend (d) lim k h(x k ), max{0, g(x k )} = 0 (e) Jeder Häufungspunkt der Folge x k ist Lösung von (NLP ). Page 67 of 92
68 Barriereverfahren Probleme mit Ungleichungsrestriktionen: min f(x) u.d.n. g i (x) 0 i = 1,... m, Ersetze durch unrestringiertes Problem mittels logarithmischer Barrierefunktion: inverser Barrierefunktion: α k 0 min f(x) α x m log( g i (x)) i=1 min f(x) α x m i=1 Nachteil von Penalty-und Barriereverfahren: schlechte Kondition der Hessematrix 1 g i (x)) } Page 68 of 92
69 Exakte Penaltyfunktionen Ansatz: ( ) P r (x; α) = f(x) + αr(x) mit r 0 so dass r(x) = 0 h(x) = 0 g(x) 0 Definition 24.. P r der Form ( ) heißt exakt in einem lokalen Min. x von (NLP ) : ᾱ > 0 : α ᾱ : x lokales Min. von P r ( ; α) Satz 53. Sei P r der Form ( ) exakt in einem lokalen Min. x von (NLP ) mit f(x ) 0. Dann ist r in x nicht differenzierbar. r q (x) := h(x), max{0, g(x)} l q, P q (x, α) = f(x) + αr q (x) Page 69 of 92 Satz 54.. Sei für ein q 0 [1, ] P q0 exakt in einem lokalen Min. x von (NLP ). Dann ist für alle q [1, ] P q exakt in x.
70 Exaktheit bei konvexen Problemen: Satz 55. *. Seien f, g i konvex und stetig diffbar, h j affin, (x, λ, µ ) KKT-Punkt. Dann ist für alle q [1, ] P q exakt in x. Exaktheit bei nichtlinearen Problemen: Satz 56.. Sei x isoliertes lokales Minimum, in dem die (MFCQ) erfüllt ist. Dann ist für alle q [1, ] P q exakt in x. Exaktheit bei linearen Restriktionen: Satz 57.. Seien g i, h j affin, (x, λ, µ ) lokales Minimum. Dann ist für alle q [1, ] P q exakt in x. Page 70 of 92
71 Multiplier-Penalty Methoden Gleichungsrestringierte Probleme min f(x) u.d.n. h(x) = 0 L a (x, µ; α) = f(x) + α 2 h(x) 2 + µ T h(x) L a... erweiterte Lagrangefunktion (augmented Lagrangean) Lemma 31.. Q R n n symm. pos. semidef., P R n n symm. pos. def. auf N (Q), d.h. x R n : x T Qx 0 ((Qx = 0 x 0) x T P x > 0) Dann gilt: α > 0 α α : P + αq pos.def. Page 71 of 92
72 Satz 58.* (Exaktheit der erweiterten Lagrangefunktion) (x, µ ) KKT-Pkt. und d 0 T 0 (x ) : d T 2 xxl(x, µ )d > 0, T 0 (x ) := {d R n h j (x ) T d = 0, j = 1,..., p} (hinr. Bed. 2.Ord., Satz 19). Dann gilt: α > 0 α α : x ist striktes lokales Min. v. L a (, µ ; α) k = 0: Wähle x 0 R n, µ 0 R p, α 0 > 0, c (0, 1), ρ > 1. While ((x k, µ k ) nicht KKT-Punkt) do: Bestimme x k+1 als Lösung des unrestr. Opt.Probl. min x L a (x, µ k ; α k ) Setze µ k+1 = µ k { + α k h(x k+1 ) ραk falls h(x Wähle α k+1 := k+1 ) c h(x k ). α k sonst Setze k = k + 1. Page 72 of 92
73 Gleichungs- und Ungleichungsrestringierte Probleme min x f(x) u.d.n. h(x) = 0, g(x) 0 min x,s f(x) u.d.n. h(x) = 0, g(x) + s2 = 0 L a (x, λ, µ; α) = f(x) + µ T h(x) + α 2 h(x) α ( max{0, λ + αg(x)} 2 λ 2 ) µ k+1 = µ k + α k h(x k+1 ), λ k+1 = max{0, λ k + α k g(x k+1 )} Page 73 of 92
74 SQP Verfahren Newtonverfahren für nichtlineare Gleichungssysteme F (x) = 0 k = 0: Wähle x 0 R n. While (F (x k ) 0) do: Bestimme d k als Lösung des lin. Glsys. F (x k )d k = F (x k ) Setze x k+1 = x k + d k Setze k = k + 1. Satz 59. F stetig diffbar, x Nullstelle von F, F (x ) regulär. Dann existiert ε > 0 sodass für alle x 0 B ε (x ) (a) Das Newtonverfahren ist wohldefiniert und konvergent gegen x (b) x k x superlinear. (c) Falls F lokal Lipschitzstetig: x k x quadratisch. Page 74 of 92
75 Lagrange-Newton-Iteration Gleichungsrestringierte Probleme min f(x) u.d.n. h(x) = 0 (x, µ )löst KKT-Sys. Φ(x, µ ) = 0 mit Φ(x, µ) = Newtonverfahren für Glsys. Φ(x, µ) = 0 : Φ (x k, µ k )( x k, µ k ) = Φ(x k, µ k ) ( x L(x, µ) h(x) ) x k+1 = x k + x k, µ k+1 = µ k + µ k Satz 60. Sei (x, µ ) KKT-Punkt mit (a) ( h j (x )) j=1,...,p linear unabhängig (LICQ) (b) d 0 T 0 (x ) : d T 2 xxl(x, λ, µ )d > 0 (hinr.bed. 2. Ord.) Dann ist Φ (x, µ ) regulär. Page 75 of 92
76 Gleichungs- und Ungleichungsrestringierte Probleme min x f(x) u.d.n. h(x) = 0, g(x) 0 (x, λ, µ )löst KKT-Sys. Φ(x, λ, µ ) = 0 x L(x, λ, µ) mit Φ(x, µ) = h(x) φ( g(x), λ) und φ... komponentenweise NCP Funktion: φ( α, β) := (ϕ(α i, β i )) i=1...m α, β R : ϕ(α, β) = 0 α 0, β 0, αβ = 0 Problem: ϕ nichtdifferenzierbar oder Φ nicht regulär. Page 76 of 92
77 SQP Verfahren min x f(x) u.d.n. h(x) = 0, g(x) 0 (NLP ) Lokales SQP Verfahren k = 0: Wähle (x 0, λ 0, µ 0 ) R n R m R p, H 0 R n n symmetrisch. While ((x k, λ k, µ k ) nicht KKT-Punkt) do: Berechne einen KKT-Punkt (x k+1, λ k+1, µ k+1 ) des quadratischen Teilproblems min f(x k ) T (x x k ) (x xk ) T H k (x x k ) u.d.n. h(x k ) + h (x)(x x k ) = 0 g(x k ) + g (x)(x x k ) 0 Falls mehrere KKT-Punkte existieren: Minimiere zusätzlich (x k+1, λ k+1, µ k+1 ) (x k, λ k, µ k ). Wähle H k+1 symmetrisch. Setze k = k + 1. Page 77 of 92
78 Satz 61. H k := 2 L(x k, λ k, µ k ), (x, λ, µ ) KKT-Punkt mit (i) i {1,..., m} : g i (x ) + λ i 0 (strikte Komplementarität) (ii) g i (x ), i I(x ), h j (x ), j = 1,... p lin. unabh. (LICQ) (iii) d 0 T 2 (x ) : d T 2 xxl(x, λ, µ )d > 0, (hinr. Bed. 2.Ord.) T 2 (x ) := {d R n h j (x ) T d = 0, j = 1,..., p, g i (x ) T d = 0, i I(x )} Dann existiert ε > 0 sodass für alle (x 0, λ 0, µ 0 ) B ε (x, λ, µ ) (a) Das SQP Verfahren ist wohldefiniert und konvergent gegen (x, λ, µ ). (b) (x k, λ k, µ k ) (x, λ, µ ) superlinear. (c) Falls 2 f, g, h lokal Lipschitzstetig: (x k, λ k, µ k ) (x, λ, µ ) quadratisch. Page 78 of 92
79 l 1 Straffunktion P 1 (x; α) = f(x) + α Globales SQP Verfahren m max{0, g i (x)} + α i=1 p h j (x) k = 0: Wähle (x 0, λ 0, µ 0 ) R n R m R p, H 0 R n n symmetrisch. α > 0 hinreichend groß, β (0, 1), σ (0, 1) While ((x k, λ k, µ k ) nicht KKT-Punkt) do: Berechne einen KKT-Punkt ( x k, λ k+1, µ k+1 ) des quadratischen Teilproblems min f(x k ) T x k ( xk ) T H k x k u.d.n. h(x k ) + h (x) x k = 0 g(x k ) + g (x) x k 0 Berechne t k = max{β l l = 0, 1, 2,...} s.d. P 1 (x k + t k x k ; α) P 1 (x k ; α) + t k σ P 1 (x k ; α) T x k Setze x k+1 = x k + t k x k Wähle H k+1 symmetrisch, Setze k = k + 1. α := α k > max{λ k+1 1,..., λ k+1 m, µ k+1 1,..., µ k+1 p } j=1 Page 79 of 92
80 Fragestellungen Ist x k eine Abstiegsrichtung für P 1? (Wohldefiniertheit Armijo- Schrittweite) Existiert eine Lösung der quadratischen Teilproblems? Wird ab einem hinreichend großen Iterationsindex die Schrittweite t k = 1 akzeptiert? Wahl der Matritzen H k Page 80 of 92
81 x k Abstiegsrichtung für P 1 P 1 (x; α) = f(x) + α m i=1 max{0, g i(x)} + α p j=1 h j(x) Lemma 32. (Richtungsableitung von und max{0, }) x, d R d für x > 0 (a) θ(x) = x θ (x; d) = d für x = 0 d für x < 0 (b) θ(x) = max{0, x} θ (x; d) = Lemma 33. (Kettenregel für Richtungsableitung) (a) h : R n R m richtungsdiffbar in x d für x > 0 max{0, d} für x = 0 0 für x < 0 (b) g : R m R p richtungsdiffbar und lokal Lipschitzstetig in h(x) f = g h richtungsdiffbar in x f (x; d) = g (h(x); h (x; d)) d R n Page 81 of 92
82 Lemma 34. (Richtungsableitung der l 1 -Penaltyfunktion) P 1(x; d; α) = f(x) T d +α g i (x) T d + α i: g i (x)>0 +α j: h j (x)>0 h j (x) T d α i: g i (x)=0 j: h j (x)<0 max{0, g i (x) T d} h j (x) T d + α j: h j (x)=0 Lemma 35. *. ( x k = 0, λ k+1, µ k+1 ) KKT-Punkt des quadrat. Teilprob. (x k, λ k+1, µ k+1 ) KKT-Punkt von (NLP). Satz 62.* ( x k Abstiegsrichtung für P 1 ( ; α)) ( x k 0, λ k+1, µ k+1 ) KKT-Punkt des quadrat. Teilprob. H k pos.def. α max{λ k+1 1,..., λ k+1 m, µ k+1 1,..., µ k+1 p }. Dann gilt P 1(x k ; x k ; α) ( x k ) T H k x k < 0 h j (x) T d Page 82 of 92
83 Wahl von H k : modifizierte BFGS-Formel σ (0, 1/2) (e.g., σ = 0.2) s k = x k+1 x k y k = L(x k+1, λ k, µ k ) L(x k, λ k, µ k ) { 1 falls s k T y k σs kt H k s k θ k = η k H k+1 (1 σ) s kt H k s k s kt H k s k s kt y k = θ k y k + (1 θ k )H k s k = H k + ηk η kt s kt η H ks k s kt Hk k s kt H k s k Lemma 36. H k symm.pos.def., s k 0 (a) s kt η k > 0 (b) H k+1 symm.pos.def. sonst Page 83 of 92
84 Schrittweite t k = 1: der Maratos-Effekt Information 2.Ordnung der Nebenbedingungen: min f(x k ) T x k ( xk ) T H k x k u.d.n. g i (x k ) + g i (x k ) T x k 0 i {1,..., m} h j (x k ) + h j (x k ) T x k = 0 j {1,..., p} min f(x k ) T d + 1 d T 2 H k d u.d.n. g i (x k ) + g i (x) T d + 1 d T 2 2 g i (x k ) d 0 i {1,..., m} h j (x k ) + h j (x k ) T d + 1 d T 2 2 h j (x k ) d = 0 j {1,..., p} min p kt d k dkt H k d k u.d.n. g i (x k ) + ( g i (x k ) g i (x k ) x k ) T d k 0 i {1,..., m} h j (x k ) + ( h j (x k ) h j (x k ) x k ) T d k = 0 j {1,..., p} mit p k := f(x k ) 1 m 2 i=1 λk+1 i 2 g i (x k ) x k 1 m 2 j=1 µk+1 j 2 h j (x k ) x k Liniensuche entlang Kurve x(t) = x k + t x k + t 2 (d k x k ) Alternativen: Watchdog-Technik, nichtmonotone Liniensuchstrategien Page 84 of 92
85 Zulässigkeit der quadratischen Teilprobleme min f(x k ) T x ( x)t H k x u.d.n. g i (x k ) + g i (x k ) T x 0 i {1,..., m} h j (x k ) + h j (x k ) T (QP ) x = 0 j {1,..., p} Lemma 37. (NLP) zulässig, g i konvex, h j affin (QP ) zulässig. min f(x k ) T x ( x)t H k x + α( m i=1 ξ i + p j=1 (η+ j + η j )) u.d.n. g i (x k ) + g i (x k ) T x ξ i, ξ i 0, h j (x k ) + h j (x k ) T x = η j + η j, η+ j, ( QP ) η j 0, Lemma 38.. (a) ( QP ) zulässig. (b) x k zulässig für (QP ) ( x k, 0, 0, 0) zulässig für ( QP ) Page 85 of 92
86 KKT-Bedingungen für ( QP ): m p f(x k ) + H k x + λ i g(x k ) + µ j h(x k ) = 0 i=1 j=1 α λ i λ + i = 0 α µ j µ + j = 0 α + µ j µ j = 0 λ i 0, g i (x k ) + g i (x k ) T x k ξ i 0, λ i (g i (x k ) + g i (x k ) T x k ξ i ) = 0 λ + i 0, ξ i 0, λ + i ξ i = 0 h j (x k ) + h j (x k ) T x η j + + η j = 0 µ + j 0, η+ j 0, µ + j η+ j = 0 µ j 0, η j 0, µ j η j = 0 Page 86 of 92
87 Lemma 39. H k pos.def.: (a) ( QP ) lösbar. (b) (( x k, λ k+1, µ k+1 ) KKT-Punkt für (QP ) mit α max{λ k+1 i, µ k+1 j }) ( x k, 0, 0, 0) löst ( QP ) Lemma 40.. (0, 0, 0, 0, λ k+1, λ + k+1, µ k+1, µ + k+1, µ k+1 ) KKT-Pkt v ( QP ) (x k, λ k+1, µ k+1 ) KKT-Punkt von (NLP ). Page 87 of 92
88 x aus Lösung von ( QP ) Abstiegsrichtung für P 1 ( ; α)): Φ(x; x; α) = f(x) + f(x) T x m +α( max{0, g i (x) + g i (x) T x} + i=1 Lemma 41. α > 0 (a) x, x : Φ(x; x; α) P 1 (x; α) + P 1(x, x; α) p h j (x) + h j (x) T x ) j=1 (b) x δ(x) x δ(x) : Φ(x; x; α) = P 1 (x; α) + P 1(x, x; α) Lemma 42. ( x k, ξ, η +, η ) löst ( QP ). Dann gilt: Φ(x k, x k ; α) P 1 (x k ; α) x kt H k x k Satz 63. ( x k Abstiegsrichtung für P 1 ( ; α)) H k pos.def. ( x k 0, ξ k, η +k, η k, λ k+1, λ + k+1, µ k+1, µ + k+1, µ k+1 ) KKT-Pkt v ( QP ). Dann gilt P 1(x k ; x k ; α) ( x k ) T H k x k < 0 Page 88 of 92
89 Satz 64.. (a) (0, ξ k, η +k, η k, λ k+1, λ + k+1, µ k+1, µ + k+1, µ k+1 ) KKT-Pkt v ( QP ) d R n : P 1(x k ; d, α) 0. (b) H k pos.def., d R n : P 1(x k ; d, α) 0 und ( x k, ξ k, η +k, η k, λ k+1, λ + k+1, µ k+1, µ + k+1, µ k+1 ) KKT-Pkt v ( QP ) x k = 0. Page 89 of 92
90 Modifiziertes globales SQP Verfahren k = 0: Wähle (x 0, λ 0, µ 0 ) R n R m R p, H 0 R n n symmetrisch. α > 0 hinreichend groß, β (0, 1), σ (0, 1) While ((x k, λ k, µ k ) nicht KKT-Punkt) do: Berechne einen KKT-Punkt ( x k, λ k+1, µ k+1 ) des modifizierten quadratischen Teilproblems ( QP ) Berechne t k = max{β l l = 0, 1, 2,...} s.d. P 1 (x k + t k x k ; α) P 1 (x k ; α) t k σ x kt H k x k Setze x k+1 = x k + t k x k Wähle H k+1 symmetrisch Setze k = k + 1. Satz 65. c 1, c 2 > 0 k N d R n : c 1 d 2 d T H k d c 2 d 2 Dann ist jeder Häufungspunkt von (x k ) k N stationärer Punkt von P 1 (, α) Page 90 of 92
91 Projektionsverfahren min f(x) u.d.n. x X Satz 66. *. f : R n R stetig diffbar, X R n nichtleer, abgeschlossen u. konvex. (a) x lokales Minimum x X : f(x ) T (x x ) 0 (b) f konvex u. x X : f(x ) T (x x ) 0 x globales Minimum. Satz 67. *. f : R n R stetig diffbar, X R n nichtl., abg. u. konvex, γ > 0. x X : f(x ) T (x x ) 0 x = Proj X (x γ f(x )) Fixpunktiteration x k+1 = Proj X (x k t k f(x k )). Liniensuche entlang von x k (t) := Proj X (x k t f(x k )) Page 91 of 92
92 Projiziertes Gradientenverfahren: k = 0: Wähle x 0 X, β (0, 1), σ (0, 1), ε > 0. While x k x k (1) > ε do: Berechne t k = max{β l l = 0, 1, 2,...} s.d. f(x k (t k )) f(x k ) + t k σ f(x k ) T (x k (t k ) x k ) Setze x k+1 = x k (t k ) Setze k = k + 1. Lemma 43. u, v R n, v T (u v) > 0 : u v ut (u v) v T (u v) Lemma 44. X R n nichtleer, abgeschlossen u. konvex, x, d R n α θ(α) := Proj X(x + αd) x α monoton fallend auf R + Lemma 45. Für alle k ist t k in obigem Algo. wohldef. und t k > 0 Satz 68.. Jeder Häufungspunkt x von (x k ) k N genügt der notwendigen ung x X : f(x ) T (x x ) 0. Page 92 of 92
KAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrNichtlineare Optimierung
Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, 07. 14. März 2009 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrNUMERISCHE METHODEN DER OPTIMIERUNG
NUMERISCHE METHODEN DER OPTIMIERUNG VORLESUNGSSKRIPT FS 2008 (Vorläufige Fassung vom 14. Mai 2008) D. Peterseim Institut für Mathematik Universität Zürich Inhaltsverzeichnis Inhaltsverzeichnis iii 1 Einführung
MehrNichtlineare Optimierung
Nichtlineare Optimierung Roland Pulch Vorlesung im Wintersemester 2015/16 Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Inhalt:
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrOptimierung I. Wintersemester 2008/09
Optimierung I Wintersemester 2008/09 Literatur: C. Geiger, C. Kanzow: Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben, Springer, 1999 Page 1 of 111 Inhalt Einleitung (Begriffsbildung,
MehrTeil II. Nichtlineare Optimierung mit Nebenbedingungen
Teil II Nichtlineare Optimierung mit Nebenbedingungen 60 Kapitel 8 Theoretische Grundlagen Wir betrachten unser allgemeines Problem (P f(x = min!, x Ω, wobei der Zulässigkeitsbereich Ω R n nun auf die
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrNICHTLINEARE OPTIMIERUNG
NICHTLINEARE OPTIMIERUNG Vorlesungsskript, Wintersemester 2015/16 Christian Clason Stand vom 21. März 2016 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 grundlagen
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrSkript zur Vorlesung im SS 2013+SS Konvexe Optimierung. Thorsten Raasch. 14. August 2014
Skript zur Vorlesung im SS 2013+SS 2014 Konvexe Optimierung Thorsten Raasch 14. August 2014 Inhaltsverzeichnis I. Konvexe Optimierung I 5 1. Einführung 7 2. Konvexe Mengen 11 3. Konvexe Funktionen 13
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Innere-Punkte-Verfahren Lineare Optimierung über Kegeln Second-Order-Cone Programme SOC Anwendung: Regularisierung SOC Anwendung: Klassifizierung, Support-Vektor SOC Anwendung:
MehrLineare und nichtlineare Optimierung
Lineare und nichtlineare Optimierung AXEL DREVES Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität der Bundeswehr München Werner-Heisenberg-Weg 39 85577 Neubiberg/München
MehrSeminarvortrag: Trust-Region-Verfahren
Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
Mehr12. Trennungssätze für konvexe Mengen 83
12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C
MehrKapitel 9. Quadratische Optimierung. 9.1 Gleichungsrestriktionen
Kapitel 9 Quadratische Optimierung Ein Grundprinzip bei der numerischen Lösung von nichtlinearen Problemen ist, das Ausgangsproblem durch eine Folge von leichter zu handhabenden Problemen zu ersetzen.
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrSkript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein
Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2009 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................
MehrSkript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein
Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2011 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................
MehrNumerische Verfahren der restringierten Optimierung. Stefan Volkwein
Numerische Verfahren der restringierten Optimierung Stefan Volkwein 6. Juli 2011 Prof. Dr. Stefan Volkwein, Fachbereich Mathematik und Statistik, Universität Konstanz E-mail address: stefan.volkwein@uni-konstanz.de
Mehr4 Differenzierbarkeit einer konjugierten Funktion
4 Differenzierbarkeit einer konjugierten Funktion (Eingereicht von Corinna Vits) 4.1 Differenzierbarkeit 1.Ordnung Theorem 4.1.1: Sei f ConvR n strikt konvex. Dann ist int dom und f ist stetig differenzierbar
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrDas Subgradientenverfahren
Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten
MehrGlobale Newton Verfahren
Betrachten: System von n nichtlinearen Gleichungen: F : D R n, F C 1 D Gesucht: x D, sodass F x =0. Vorher: Bedingungen für Startwert wie z.b. x x 0 2 / garantieren die Konvergenz des lokalen Newton-Verfahrens
MehrEinführung in Softwaretools zur Nichtlinearen Optimierung
Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrBemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren
Kapitel 2 Newtonverfahren Ziel: Bestimmung von Nullstellen von f (=stationärer Punkt). Dies geschieht mit dem Newtonverfahren. x k+1 = x k ( 2 f (x k )) 1 f (x k ) (2.1) Bemerkung 2.1: Das Newtonverahren
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrEinführung in die Optimierung
Einführung in die Optimierung Prof. Dr. Bastian von Harrach Universität Stuttgart, Fachbereich Mathematik - IMNG Lehrstuhl für Optimierung und inverse Probleme Wintersemester 2014/15 http://www.mathematik.uni-stuttgart.de/oip
MehrLineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
MehrKAPITEL 5. Nichtlineare Gleichungssysteme
KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld
Mehr5 Konvexe Mengen, Trennungssätze
VORLÄUFIGE, TEILWEISE ÜBERARBEITETE VERSION (DIE NUMMERIERUNG IST ERST TEILWEISE VON TEX AUF LATEX UMGESTELLT UND ENTSPRECHEND NICHT GANZ KONSISTENT) 5 Konvexe Mengen, Trennungssätze In diesem Kapitel
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
MehrKapitel 4: Nichtlineare Nullstellenprobleme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS
MehrNichtlineare Gleichungssysteme
Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei
Mehr3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
MehrDie Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation
und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2
MehrEinführung in die nichtlineare Optimierung
Einführung in die nichtlineare Optimierung Prof. Dr. Walter Alt Semester: SS 2010 1 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen
MehrWirtschaftsmathematik II
WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
MehrWir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems
Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
Mehr4.4 Quadratische Optimierungsprobleme
4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen
MehrTopologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte
Universität München 22. Juli 29 Topologie und Differentialrechnung mehrerer Veränderlicher, SS 29 Modulprüfung/Abschlussklausur Name: Aufgabe 2 3 4 Punkte Gesamtpunktzahl: Gesamturteil: Schreiben Sie unbedingt
MehrII. Nichtlineare Optimierung
II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,
MehrOptimierung und inverse Probleme
Optimierung und inverse Probleme Prof. Dr. Bastian von Harrach Goethe-Universität Frankfurt am Main Institut für Mathematik Wintersemester 2016/17 http://numerical.solutions Vorläufige Version, wird während
Mehrist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1
24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrÜbung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
Mehr([0, 1]) und int K = p 1
126 III. Der Satz von Hahn-Banach und seine Konsequenzen wie man durch Einsetzen unmittelbar erkennt. Zeigen wir noch die Halbstetigkeit von f: Sei(x n ) eine Folge in L p (R) mitx n x in L p (R) und f(x
MehrInhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)
Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018 Beispiel 1.1
MehrVF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.
NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule
1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier
Mehr1.3 Differenzierbarkeit
1 1.3 Differenzierbarkeit Definition Sei B R n offen, a B, f : B R eine Funktion und v 0 ein beliebiger Vektor im R n. Wenn der Grenzwert D v f(a) := lim t 0 f(a + tv) f(a) t existiert, so bezeichnet man
Mehr1 Einführung in Lineare Programme und Dualität
Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen
MehrFunktionen mehrerer Variabler
Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:
MehrNäherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.
3 Nullstellenbestimmung von Funktionen Sei x f(x) eine reellwertige Funktion, definiert auf einem Intervall I = [a, b] R. suchen Nullstellen der Funktion f, d.h. Wir finde α R so, das f(α) = 0. (3.0.1)
MehrSeminar Gewöhnliche Differentialgleichungen
Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden
MehrInhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen
Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form
MehrSattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen
Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander
Mehr