Optimalitätskriterien

Größe: px
Ab Seite anzeigen:

Download "Optimalitätskriterien"

Transkript

1 Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen sowohl unter theoretischen als auch unter numerischen Aspekten Bedeutung. In diesem Kapitel werden lokale und globale Optimalitätskriterien hergeleitet. 4.1 Einleitung Ein Gegenstand dieses Kapitels ist die Verallgemeinerung der Methode der Lagrangeschen Multiplikatoren auf Probleme mit Bedingungsungleichungen und beschränkten Variablen. Es wird der Zusammenhang zwischen der Lösung eines Optimierungsproblems und dem Sattelpunkt eines Lagrangeschen Funktionals hergestellt. Wir betrachten zunächst die Lagrangesche Methode für ein Optimierungsproblem mit Nebenbedingungen in Gleichungsform {fx : x Ω R n } min!, 4.1 Ω = {x R n : h i x = 0, i {1,..., p}, p < n}. Seien fx in Ω und h i x, i = 1,..., p, in R n differenzierbar. Für beliebiges festes x Ω werden die Matrizen H 0 x := h 1 x,..., h p x T R p n H0 x, Hx := fx T R p+1 n definiert. Für das Problem 4.1 wird die Lagrange Funktion p Lx, λ = λ 0 fx + λ i h i x, x Ω, λ R p+1, i=1 eingeführt. Die Zahlen λ 0,..., λ p nennt man Lagrangesche Multiplikatoren. Man kann beispielsweise folgendes Optimalitätskriterium für Problem 4.1 beweisen. Satz 4.1 Seien x 0 Ω und rgh 0 x 0 = rghx 0. Dann gilt: besitzt fx in x 0 T ein lokales Minimum bezüglich Ω, so existiert ein λ 0 = λ 0 0,..., λ0 p R p+1, mit λ und x Lx 0, λ 0 = λ 0 0 fx 0 + p i=1 λ 0 i h i x 0 =

2 Verallgemeinerungen dieser Aussage auf den Fall, dass die Matrizen unterschiedlichen Rang besitzen, sind möglich. Mit Hilfe des Gleichungssystems 4. hat man ein Kriterium zur Bestimmung von Punkten, in denen fx ein lokales Minimum annehmen kann. Sofern dies möglich ist, berechnet man alle Lösungen x, λ von 4.. Im allgemeinen sind jedoch nicht alle Lösungen auch lokale Extrempunkte. Das heißt, man erweitert das gegebene Problem so, dass - man für die Lösung des erweiterten Problems Standardkriterien, zum Beispiel dass Ableitungen verschwinden, für ein Minimum hat, - die Lösung des erweiterten Problems Rückschlüsse auf die Lösung des gegebenen Problems zulässt. 4. Lokale Minima für Optimierungsprobleme ohne Einschränkungen an das zulässige Gebiet Wir betrachten das Optimierungsproblem z = min{fx : x Ω} 4.3 mit f C 1 R n an sich reicht f C 1 Ω mit Ω Ω, Ω offen. Für diese Problem sollen im folgenden lokale Optimalitätskriterien hergeleitet werden. Zunächst werden spezielle konvergente Folgen betrachtet. Definition 4. Konvergent gegen x 0 in Richtung y, gerichtet konvergent. Eine konvergente Folge {x k } k N, x k R n, mit x k x 0 heißt konvergent gegen x 0 in Richtung y R n oder gerichtet konvergent, wenn gilt Die Schreibweise ist k x k x 0 x k x 0 = y, y = 1. x k y x0. Beispiel 4.3 Sei {x k } k N mit x k = 1 k, 1 T. k Dann ist x 0 = 0, 0 T und es gilt k x k x k = k k 1 k 1 k = = y. Man kann aus jeder gegen x 0 konvergenten Folge {x k } k N eine gerichtet konvergente Teilfolge auswählen, sofern unendlich viele Elemente der Folge ungleich x 0 sind. Sei x k x 0 für k k 0, dann sind alle Glieder der Folge y k := x k x 0 x k x 0, k k 0, Elemente der kompakten Menge {x R n : x = 1}. Damit besitzt {y k } k N einen Häufungspunkt in dieser Menge und man findet in {y k } k N eine konvergente Teilfolge. Die Aussage des folgenden Lemmas kann in gewisser Weise als Verallgemeinerung der Richtungsableitung aufgefasst werden. 88

3 Lemma 4.4 Die Folge {x k } k N sei konvergent gegen x 0 in Richtung y. Dann gilt: 1. Ist f : R n R in x 0 stetig differenzierbar, so folgt fx k fx 0 = y T fx 0. k x k x 0. Ist f : R n R in x 0 zweimal stetig differenzierbar, so gilt fx k fx 0 x k x 0 T fx 0 k x k x 0 = 1 yt H f x 0 y. Beweis: Es wird nur die erste Aussage bewiesen, der Beweis der zweiten Aussage ist analog. Da fx in x 0 differenzierbar ist, also insbesondere alle Richtungsableitungen existieren, folgt unter Nutzung der Definition der Richtungsableitung, dass fx fx0 x x 0 T fx 0 = 0. x x 0 x x 0 x x 0 Außerdem existiert nach Voraussetzung der Grenzwert Damit folgt x k x 0 T fx 0 = y T fx 0. x k x 0 x k x 0 fx k fx 0 x k x 0 T = fx 0 = y T fx 0. x k x 0 x k x 0 x k x 0 x k x 0 Definition 4.5 Tangentenkegel. Der Tangentenkegel T x 0 an die Menge Ω im Punkt x 0 Ω ist gegeben durch { } y T x 0 := λy : y = 1, {x k } k N Ω, x k x0, λ 0. Der Tangentenkegel T x 0 hat nur etwas mit dem zulässigen Gebiet Ω zu tun und nicht mit der zu minimierenden Funktion fx. Er beschreibt die Richtungen, aus denen man sich x 0 mit einer Folge annähern kann, deren Glieder alle in Ω liegen. Der Begriff des Tangentenkegels ist eine Verallgemeinerung der Tangetialhyperebene. Die Menge T x 0 ist ein Kegel. Für jeden inneren Punkt x 0 Ω gilt T x 0 = R n. Für isolierte Punkte setzen wir T x 0 = {0}. Beispiel 4.6 Sei Ω = {x R : x 1 + x = 1, x 1 0, 0 < x < }. Für den Punkt x 0 = 0, 1 T Ω erhält man, direkt aus der geometrischen Anschauung, { } T x 0 = y R 1 : y = λ, λ 0. 0 Analytisches Nachrechnen: Übungsaufgabe Lemma 4.7 Für jeden Punkt x 0 Ω ist der Tangentenkegel T x 0 abgeschlossen. 89

4 Beweis: Siehe Literatur. Der folgende Satz gibt ein notwendiges Kriterium für die Existenz eines lokalen Minimums von fx bezüglich Ω an. Das lokale Minimum kann auch auf dem Rand von Ω liegen. Beachte, dass fx nach Voraussetzung auf dem Rand von Ω stetig differenzierbar ist. Satz 4.8 Sei f : R n R in x 0 Ω stetig differenzierbar. Besitzt fx in x 0 ein lokales Minimum bezüglich Ω, dann gilt y T fx 0 0 y T x 0. Beweis: Sei y T x 0. Für y = 0 ist y T fx 0 = 0. Ansonsten existieren ein λ R, λ > 0, und ein y T x 0, y = 1, mit y = λy. Ferner sei {x k } k N Ω y eine Folge mit x k x 0. Da fx in x 0 ein lokales Minimum bezüglich Ω annimmt, gilt für hinreichend große k die Ungleichung fx k fx 0. Daraus folgt unter Beachtung von Lemma 4.4, 1 fx k fx 0 = y T fx 0 0 k x k x 0 und damit auch y T fx 0 0. Aus diesem Satz folgt nicht, dass fx in x 0 ein lokales Minimum nur annehmen kann, wenn fx 0 = 0 gilt. Gilt jedoch fx 0 = 0, dann hat man ein zweites notwendiges Kriterium. Satz 4.9 Sei f : R n R in x 0 Ω zweimal stetig differenzierbar. Besitzt fx in x 0 ein lokales Minimum bezüglich Ω und gilt fx 0 = 0, dann folgt y T H f x 0 y 0 y T x 0. Beweis: Der Beweis ist analog zum Beweis von Satz 4.8, wobei jedoch jetzt Lemma 4.4, verwendet wird. Aus x k x 0 T fx 0 = 0 und fx k fx 0 für hinreichend große Indizes k folgt dann fx k fx 0 x k x 0 T fx 0 k x k x 0 = 1 y T H f x 0 y 0. Der folgende Satz enthält eine hinreichende Bedingung für die Existenz eines eigentlichen lokalen Minimums von fx bezüglich Ω. Satz 4.10 Sei f : R n R in x 0 Ω zweimal stetig differenzierbar. Gelten fx 0 = 0 und y T H f x 0 y > 0 für alle y T x 0, y 0, dann besitzt fx in x 0 ein isoliertes lokales Minimum bezüglich Ω. Beweis: Indirekter Beweis. Wir nehmen an, dass fx in x 0 kein isoliertes lokales Minimum bezüglich Ω besitzt. Dann existiert eine Folge {x k } k N Ω mit x k x 0, mit unendlich vielen Elementen, die ungleich x 0 sind, und fx k fx 0, k 1. Es existiert eine Teilfolge von {x k }, die gegen ein ỹ gerichtet konvergent ist. Ohne ỹ Beschränkung der Allgemeinheit kann auch x k x0 angenommen werden. Dann folgt aus Lemma 4.4 fx k fx 0 k x k x 0 = 1 ỹt H f x 0 ỹ 0 mit ỹ T x 0, im Widerspruch zur Voraussetzung. Für jeden inneren Punkt x 0 Ω gilt T x 0 = R n und aus den Aussagen der Sätze folgen die bekannten notwendigen und hinreichenden Bedingungen für die Existenz lokaler Minima einer Funktion f : R n R. 90

5 4.3 Lokale Minima für Optimierungsprobleme, bei denen das zulässige Gebiet durch Ungleichungen gegeben ist In diesem Abschnitt wird das Optimierungsproblem z = min{fx : x Ω} mit Ω = {x R n : gx 0} 4.4 mit f C 1 R n und g : R n R m, g C 1 R n untersucht. Unter Verwendung der Resultate aus Abschnitt 4. werden nun lokale Optimierungskriterien für 4.4 hergeleitet. Dazu wird eine lokale Theorie von Lagrange Multiplikatoren entwickelt. Definition 4.11 Aktive Nebenbedingung. Eine Nebenbedingung g i x 0, i = 1,..., m, wird im Punkt x 0 Ω aktiv genannt, wenn gilt g i x 0 = 0. Bezeichnung: I 0 := {i {1,..., m} : g i x 0 = 0}. Sei I 0. Die in x 0 aktiven Nebenbedingungen werden nun durch affine Funktionen ersetzt g i x 0 T x x 0, x R n, i I 0, beziehungsweise in Matrixnotation g I0 x 0 T x x 0, g I0 x 0 R n I0. Der Gradient einer vektorwertigen Funktion gx ist wie folgt definiert: gx = g 1x x1 g m x x1 g 1 x xn g m x xn R n m. Ausgehend von der Anschauung, könnte man die Menge { x : g I0 x 0 T x x 0 0, g I\I0 x 0 + g I\I0 x 0 } T x x0 0 als eine lineare Approximation der Menge Ω im Punkt x 0 ansehen. Dies ist jedoch in gewissen ausgearteten Punkten nicht zutreffend, siehe Beispiel 4.15 Definition 4.1 Linearisierter Kegel. Die Menge Kx 0 := {y R n : g I0 x 0 T y 0} heißt linearisierter Kegel von Ω im Punkt x 0 Ω. Für I 0 = setzen wir Kx 0 = R n. Lemma 4.13 Es gilt T x 0 Kx 0. Beweis: Für I 0 = gilt die Behauptung trivialerweise. Sei also I 0. Der Nullvektor gehört per Definition zu beiden Mengen. Sei y T x 0, y 0. Dann existieren ein y T x 0, y = 1 und ein λ > 0 mit y = λy und eine Folge y {x k } k N Ω mit x k x 0. Wegen g i x k 0 für alle i und g i x 0 = 0 für alle i I 0 hat man g i x k g i x 0 0 = g i x 0 T y i I 0, k x k x 0 wobei Lemma 4.4, 1 verwendet wurde. Folglich gilt y Kx 0. 91

6 Lemma 4.14 Es gilt K 0 x 0 := {y R n : g I0 x 0 T y < 0} T x 0. Beweis: Siehe Literatur, zum Beispiel [ERSD77, S. 145]. Beispiel 4.15 Sei Ω = {x R : x x 0, x 0}, d.h. die Menge Ω ist begrenzt von der positiven x 1 Achse und der Funktion x 3 1. Damit sind x 3 gx = 1 + x, gx T 3x = 1 1. x 0 1 Wir betrachten den Punkt x 0 = 0, 0 T. In diesem Punkt sind beide Nebenbedingungen mit Gleichheit erfüllt, also I 0 = {1, }. Es folgt g I0 x 0 T 0 1 y1 =, = Kx =, y 0 1 R. Für den Tangentialkegel gilt T x 0 = {y R : y 1 0, y = 0}. Es ist also T x 0 Kx 0. Dieses Beispiel zeigt insbesondere, dass man für den Punkt x 0 = 0, 0 T mit Kx 0 keine lineare Approximation von Ω erhält. Beispiel 4.16 Der linearisierte Kegel Kx 0 ist im Gegensatz zum Tangentenkegel T x 0 von der analytischen Darstellung von Ω abhängig. Die Menge aus Beispiel 4.15 kann auch dargestellt werden durch Ω = {x R : x x 0, x 3 0} In diesem Fall hat man x 3 gx = 1 + x x 3, gx T 3x = x und man erhält für x 0 = 0, 0 T, dass I 0 = {1, } und g I0 x 0 T 0 1 = 0 0, = Kx 0 = y1 y mit y 1 R und y 0. Für den nächsten Beweis benötigen wir einen Hilfssatz. Lemma 4.17 Alternativsatz von Gordan. Sei A R m n, dann hat von den beiden Systemen Ay < 0 und genau eines eine Lösung. z T A = 0, z 0, z 0 Beweis: Literatur. Seien die Voraussetzungen von Satz 4.8 erfüllt und I 0. Dann folgt wegen K 0 x 0 T x 0 g I0 x 0 T y < 0 = y T fx 0 0 y K 0 x 0. 9

7 Diese Beziehung ist äquivalent damit, dass das Ungleichungssystem g I0 x 0 T y < 0, y T fx 0 < 0 keine Lösung y K 0 x 0 besitzt. Nach Lemma 4.17 besitzt dieses System genau dann keine Lösung, wenn das System η η fx 0 + g I0 x 0 z I0 = 0, 0, η R z +, 4.5 I0 eine nichttriviale Lösung besitzt. Hierbei ist z I0 ein I 0 dimensionaler Vektor, dessen Einträge durch die Indizes der aktiven Nebenbedingungen unter Beibehaltung der natürlichen Reihenfolge bestimmt sind. Setzt man z i = 0 für i I 0, so kann man 4.5 mit z R m wie folgt formulieren: η η η fx 0 + gx 0 z = 0, gx 0 0, }{{} z T gx 0 = 0, 0, 0. } {{ } z z =0,i I 0 =0,i I 0 Sei I 0 = und hat fx in x 0 Ω ein lokales Minimum, das heißt es gelten x 0 intω, z = 0 und fx 0 = 0, dann besitzt dieses System eine Lösung η > 0, z = 0. Wir betrachten jetzt das Problem: Gesucht ist ein Paar x 0, z 0 T R n R m + 0, η 0 0, η 0, z 0 T 0, welches das System η fx + gxz = 0, gx 0, z T η gx = 0, z löst. Mit dem Lagrange Funktional L η x, z = ηfx + z T gx ergibt sich die äquivalente Formulierung x L η x, z = 0, z L η x, z 0, z T z L η x, z = 0, η z Der Zusammenhang zwischen den Problemen 4.4 und 4.6 ist wie folgt. Satz 4.18 Seien f : R n R, g : R n R m differenzierbar und x 0 Ω Stelle eines lokalen Minimums von fx bezüglich Ω. Dann existieren ein z 0 R m + und ein η 0 0, so dass x 0, z 0 T und η 0 eine Lösung von 4.6 bzw. von 4.7 sind. Beweis: Literatur, Fritz John Damit haben wir für den Fall η 0 > 0 ein Optimalitätskriterium gefunden. Ist jedoch η 0 = 0, so kann der Funktionswert von fx in 4.6 beliebig sein. Es wird jetzt eine Regularitätsbedingung eingeführt, die sichert, dass unter den Voraussetzungen von Satz 4.18 für jede Lösung von 4.6 η 0 > 0 gilt. Regularitätsbedingung. Seien g : R n R m differenzierbar und Kx 0 = T x Bemerkung Für Optimierungsprobleme mit ausschließlich affinen Nebenbedingungen ist die Regularitätsbedingung stets erfüllt. - Die Regularitätsbedingung stellt eine Bedingung an die analytische Darstellung der Menge Ω dar, vergleiche Beispiele 4.15 und

8 - Man kann andere Regularitätsbedingungen formulieren, die die obige Bedingung implizieren, aber leichter zu überprüfen sind. Anstelle von 4.6 betrachten wir jetzt das Optimierungsproblem: Finde ein Paar x 0, z 0 T R n R m +, welches das Problem fx + gxz = 0, gx 0, z T gx = 0, z löst. Man bezeichnet 4.9 als lokale Kuhn Tucker Bedingung Kuhn, Tucker Unter Verwendung des Lagrange Funktionals Lx, z := fx + z T gx, x, z T R n R m + erhält man eine zu 4.9 äquivalente Formulierung x Lx, z = 0, z Lx, z 0, z T z Lx, z = 0, z Die Optimierungsprobleme 4.9, 4.10 hat man aus 4.6, 4.7 durch die Festsetzung von η = 1 erhalten. Lemma 4.0 Satz von Farkas. Seien A R m n und b R n. Dann hat von den beiden Systemen Ax 0, b T x > 0, und genau eines eine Lösung. Beweis: Siehe Literatur. y T A = b T, y 0 Satz 4.1 Satz von Kuhn/Tucker. Seien f : R n R, g : R n R m stetig differenzierbar und x 0 Ω Stelle eines lokalen Minimums von fx bezüglich Ω. Ist in x 0 die Regularitätsbedingung 4.8 erfüllt, dann existiert ein z 0 R m +, so dass x 0, z 0 T eine Lösung von 4.9 bzw. von 4.10 ist. Beweis: Sei I 0. Per Definition des linearisierten Kegels gilt Da 4.8 erfüllt ist, folgt aus Satz 4.8 für I 0 g I0 x 0 T y 0 y Kx fx 0 T y 0 = fx 0 T y 0 y T x 0 = Kx Aus Lemma 4.0 folgt, dass 4.11 und 4.1 genau dann gleichzeitig gelten, wenn das System g I0 x 0 z I0 = fx 0, z I0 0 eine Lösung besitzt. Setzt man z i = 0 für i I 0, so folgt die erste Gleichung von 4.9 für I 0. Die Beziehung gx 0 0 gilt per Definition des Optimierungsproblems. Aus der Konstruktion von z folgt schließlich z T gx 0 = 0. Für I 0 = ist z = 0 eine Lösung von 4.9. Im Falle x 0 intω gilt wegen der Regularitätsbedingung 4.8 T x 0 = Kx 0 = R n. Aus der Definition von Kx 0 folgt dann, dass gx 0 = 0 sein muss, da die Bedingung aus Satz 4.8 für jedes y R n, insbesondere für y gelten muss. Aus der ersten Gleichung der Kuhn Tucker Bedingung 4.9 folgt dann die bekannte notwendige Bedingung für ein lokales Minimum: fx 0 = 0. 94

9 Die Gültigkeit der Implikation von 4.11 nach 4.1 kann mit Hilfe eines linearen Programms überprüft werden. Diese Implikation gilt genau dann, wenn 0 der optimale Wert des Problem z = z T fx 0 min! z T g I0 x 0 0 ist. Sind die Zielfunktion und die Nebenbedingungen zweimal differenzierbar, kann man weitere Kriterien mit Hilfe der Hesse Matrix formulieren. 4.4 Globale Theorie der Lagrange Multiplikatoren Wir betrachten das Optimierungsproblem z = min{fx : x G Ω } mit G Ω = {x R n : gx 0, x Ω}, 4.13 wobei Ω R n eine nichtleere Menge ist, f : Ω R, g : Ω R m. Bei dieser sogenannten konischen Formulierung der Menge G Ω ist x genau dann zulässig, wenn x Ω und gx 0. Für Ω = R n haben wir als Spezialfall das Problem 4.4. Im folgenden werden Optimalitätskriterien in Form von Sattelpunktaussagen formuliert. Definition 4. Sattelpunkt. Die Funktion Lx, λ mit x Ω, λ D λ besitzt in x 0, λ 0 einen lokalen Sattelpunkt, wenn es ein ε > 0 gibt, so dass Lx 0, λ Lx 0, λ 0 Lx, λ 0 x, λ Ω D λ U ε x 0, λ 0, 4.14 wobei U ε x 0, λ 0 eine ε Umgebung von x 0, λ 0 ist. Gilt 4.14 für alle x, λ Ω D λ, so hat Lx, λ in x 0, λ 0 einen globalen Sattelpunkt. Zur Formulierung von globalen Optimalitätskriterien wird das folgende Sattelpunktproblem betrachtet: Gesucht sind x 0 Ω und η 0, y 0 T R m+1 + mit η 0, y 0 T 0, so dass für das Lagrange Funktional gilt L η x, y := ηfx + y T gx, x, y T Ω R m +, 4.15 L η0 x 0, y L η0 x 0, y 0 L η0 x, y 0, x, y T Ω R m +. Als nächstes soll ein notwendiges Optimalitätskriterium für 4.13 bewiesen werden. Dazu benötigen wir folgendes Lemma. Lemma 4.3 Seien Ω R n eine konvexe Menge, f : Ω R, g : Ω R q konvexe Funktionen und h : Ω R r affine Funktionen. Das System fx < 0, gx 0, hx 0, x Ω besitzt genau dann keine Lösung, wenn ein Vektor u, v, w T R + R q + Rr +, u, v, w T 0, existiert mit ufx + v T gx + w T hx 0, x Ω. Existiert ein x intω welches zusätzlich g x < 0 erfüllt, dann gilt u 0. Beweis: Siehe Literatur. 95

10 Satz 4.4 Seien Ω R n eine konvexe Menge, f : Ω R und g : Ω R m konvexe Funktionen. Ist x 0 eine Lösung von 4.13, so existieren ein η 0 R + und ein y 0 R m +, so dass x 0, η 0, y 0 T Ω R m+1 + eine Lösung des Sattelpunktproblems 4.15 ist. Beweis: Sei x 0 eine Lösung von Dann besitzt das System fx fx 0 < 0, gx 0, x Ω keine Lösung. Nach Lemma 4.3, mit hx 0, existiert dann ein Vektor η 0, y 0 T R m+1 +, η 0, y 0 T 0, mit L η0 x, y 0 = η 0 fx + y T 0 gx η 0 fx 0 x Ω. Wegen gx 0 0 folgt für alle y 0 damit L η0 x, y 0 = η 0 fx+y T 0 gx η 0fx 0 +y T gx 0 = L η0 x 0, y x, y Ω R m Setzt man in 4.16 rechts y = y 0, ergibt sich η 0 fx + y T 0 gx η 0 fx 0 + y T 0 gx 0 = L η0 x 0, y 0 x Ω. Setzt man in 4.16 links x = x 0, erhält man η 0 fx 0 + y T 0 gx 0 η 0 fx 0 + y T gx 0 y R m +. Aus den letzten beiden Ungleichungen folgt die Behauptung. Die Aussage dieses Satzes hat in gewissem Sinne Ähnlichkeit mit der von Satz Für einen gegebenen zulässigen Bereich ist die notwendige Bedingung nichtnegative Lösung von 4.15 für beliebige Werte der Zielfunktion erfüllt, falls η 0 = 0 ist. Analog wie bei den lokalen Lagrange Multiplikatoren wird deshalb eine Regularitätsbedingung eingeführt, die η 0 > 0 sichert. Regularitätsbedingung. Seien die Menge Ω R n sowie die Funktionen g i : Ω R, i {1,..., m} =: I, konvex. Es existiere ein x intω mit g i x < 0 für i I N, g i x 0 für i I L Hierbei ist I L die Menge aller i {1,..., m}, für die g i x eine affine Funktion ist und I N die Menge aller Indizes, für die g i x keine affine Funktion ist. Unter dieser Regularitätsbedingung wird das Sattelpunktproblem: Finde einen Sattelpunkt x 0, y 0 Ω R m + des Lagrange Funktional betrachtet. Lx, y := fx + y T gx, x, y T Ω R m +, 4.18 Satz 4.5 Seien die Menge Ω R n konvex, die Funktionen f : Ω R, g i : Ω R, i I, konvex und die Regularitätsbedingung 4.17 erfüllt. Ist x 0 Ω eine Lösung von 4.13, dann existiert ein y 0 R m +, so dass x 0, y 0 ein Sattelpunkt von 4.18 ist. Beweis: Da x 0 eine Lösung von 4.13 ist, ist das System fx fx 0 < 0, gx 0, x Ω nicht lösbar. Wegen der Regularitätsbedingung 4.17 besitzt jedoch das System g IN x < 0, g IL x 0, x intω 96

11 eine Lösung. Nach Lemma 4.3 existiert ein η 0, y 0 T R m+1 +, η 0 0, das g IN spielt die Rolle von g aus Lemma 4.3 mit η 0 fx fx 0 + y T 0 gx 0 x Ω. Bei dieser Darstellung wurden die Vektoren v und w aus Lemma 4.3 zum Vektor y zusammengefasst. Man kann so skalieren, dass η 0 = 1 gilt. Dann folgt Lx, y 0 = fx + y T 0 gx fx 0 x Ω. Wegen gx 0 0 folgt für alle y 0 gilt Lx 0, y = fx 0 + y T gx 0 fx 0 y R m +. Aus den letzten beiden Beziehungen folgt, indem man x = x 0 beziehungsweise y = y 0 setzt, Lx 0, y 0 = fx 0. Nach Definition ist x 0, y 0 T somit ein Sattelpunkt des Lagrange Funktionals Nun wird eine hinreichende Bedingung für eine Lösung von 4.13 formuliert. Dabei gilt eine gewisse Umkehrung von Satz 4.5, die ohne weitere Voraussetzungen an 4.13 gilt. Satz 4.6 Sei x 0, y 0 T Ω R m + ein Sattelpunkt von Dann ist x 0 eine Lösung von Beweis: Zunächst wird gezeigt, dass x 0 die Nebenbedingungen erfüllt. Aus Lx 0, y Lx 0, y 0 für alle y R m + folgt y y 0 T gx 0 0 y R m Es gilt R m + {y y 0 : y, y 0 R m + }. Somit gilt y T gx 0 0 y R m +. Sei g i x 0 > 0. Dann würde diese Beziehung nicht für den i ten Einheitsvektor gelten, der aber zu R m + gehört. Damit folgt gx 0 0. Nun wird gezeigt, dass fx in x 0 ein globales Minimum annimmt. Aus 4.19 folgt für y = 0 die Ungleichung y T 0 gx 0 0. Da y 0 0 und gx 0 0, kann das Skalarprodukt nur nichtpositiv sein, also gilt y T 0 gx 0 = 0. Mit dieser Beziehung und Lx 0, y 0 Lx, y 0 für alle x Ω folgt fx 0 fx + y T 0 gx x Ω und damit für alle x G Ω fx 0 fx + y0 T gx fx. }{{} }{{} 0 0 Bemerkung 4.7 Dualitätstheorie. Auch für die nichtlineare Optimierung gibt es eine Dualitätstheorie. Die Dualitätstheorie für lineare Programme ist darin als Spezialfall enthalten. Gegeben sei das primale Problem z = min{fx : x G Ω } mit G Ω = {x R n : gx 0, x Ω},

12 wobei Ω R n eine nichtleere Menge ist und f : Ω R, g : Ω R m Abbildungen sind. Dem Problem 4.0 wird unter Verwendung des Lagrange Funktionals das duale Problem z = max{φy : y R m + } zugeordnet, wobei φy : R m + R { }, φy = inf Lx, y = inf fx + y T gx. x Ω x Ω Man sieht, dass hier die Nichtnegativitätsbedingung im dualen Problem steckt, anders als wir es bei linearen Programmen hatten. Da wir dort jedoch gezeigt hatten, dass das duale Problem des dualen Problems wieder das primale Problem ist, ist das kein Widerspruch dazu, dass die Theorie für lineare Programme als Spezialfall enthalten ist. Man kann wieder schnell zeigen, dass der Maximalwert des dualen Problems, falls er existiert, kleiner oder gleich dem Minimalwert des primalen Problems ist. Gleichheit muss im allgemeinen jedoch nicht gelten. Man spricht dann von einer Dualitätslücke. Des weiteren sind die Fragen bezüglich der Lösbarkeit der beiden Probleme wesentlich komplizierter zu beantworten als bei linearen Programmen. 98