Einführung in die Optimierung

Ähnliche Dokumente
Optimierung und inverse Probleme

Kontinuierliche Optimierung

Nichtlineare Gleichungssysteme

Das Trust-Region-Verfahren

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

18.4 Das Newton-Verfahren

Konvexe Optimierungsprobleme

Das Gradientenverfahren

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Kapitel 3. Konvergenz von Folgen und Reihen

Rechenoperationen mit Folgen. Rekursion und Iteration.

NICHTLINEARE OPTIMIERUNG

(a), für i = 1,..., n.

Teil 6. Differentialrechnung mehrerer Veränderlicher

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

NICHTRESTRINGIERTE OPTIMIERUNG

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Mathematik für Physiker, Informatiker und Ingenieure

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

KAPITEL 3. Konvexe Funktionen

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

5.3.5 Abstiegs & Gradientenverfahren

Das Subgradientenverfahren

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Analysis I für Studierende der Ingenieurwissenschaften

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009)

Konvexe Mengen und Funktionen

3 Optimierung mehrdimensionaler Funktionen f : R n R

Rückblick auf die letzte Vorlesung. Bemerkung

Vorlesung Mathematik für Ingenieure II (Sommersemester 2008)

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Einführung in die numerische Mathematik

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

1 Umkehrfunktionen und implizite Funktionen

Optimierung für Nichtmathematiker

Inhaltsübersicht für heute:

5 Stetigkeit und Differenzierbarkeit

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

Seminar Gewöhnliche Differentialgleichungen

Lösungsvorschlag zur Nachklausur zur Analysis

Praktische Optimierung

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Ausgleichsproblem. Definition (1.0.3)

Praktische Optimierung

Seminarvortrag: Trust-Region-Verfahren

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

KAPITEL 1. Einleitung

Institut für Geometrie und Praktische Mathematik

Konversatorium zu Lineare Algebra und Analysis Analysis - Übungsbeispiele

12. Trennungssätze für konvexe Mengen 83

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Optimierung für Nichtmathematiker

40 Lokale Extrema und Taylor-Formel

1 Einleitung. 2 Reelle Zahlen. 3 Konvergenz von Folgen

Analysis II. 8. Klausur mit Lösungen

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

Musterlösung Klausur zu Analysis II. Verständnisteil

Inexakte Newton Verfahren

Analysis II 14. Übungsblatt

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler

9 Höhere partielle Ableitungen und die Taylorformel

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

Nichtlineare Gleichungssysteme

5 Numerische Iterationsverfahren

1 Übungsaufgaben zu Kapitel 1

4 Funktionenfolgen und normierte Räume

Institut für Geometrie und Praktische Mathematik

Formelsammlung Analysis I & II

Begleitmaterial zur Vorlesung Numerik II

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

GRUNDLAGEN MATHEMATIK

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Berechnung von Extrema

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Nachklausur zur Analysis 2, SoSe 2017

Studientag zur Algorithmischen Mathematik

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3

Misterlösung zur Klausur zur Vorlesung Analysis I, WS08/09, Samstag, (Version C)

i j m f(y )h i h j h m

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

1 Die direkte Methode der Variationsrechnung

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt

Bemerkung Als Folge von Satz 6.2 kann man jede ganze Funktion schreiben als Potenzreihe. α m z m. f(z) = m=0. 2πi. re it t [0,2π] 2πi

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

Numerische Optimierung

Extrema multivariater Funktionen

Transkript:

Einführung in die Optimierung Prof. Dr. Bastian von Harrach Universität Stuttgart, Fachbereich Mathematik - IMNG Lehrstuhl für Optimierung und inverse Probleme Wintersemester 2014/15 http://www.mathematik.uni-stuttgart.de/oip

Inhaltsverzeichnis 1 Motivation und Einleitung 1 1.1 Optimierungaufgaben............................. 1 1.2 Einfache mathematische Beispiele...................... 1 1.2.1 Unrestringierte lineare Optimierung................. 1 1.2.2 Lineare Ausgleichsrechnung..................... 2 1.3 Komplexere Anwendungsbeispiele...................... 2 1.3.1 Minimalflächen............................ 2 1.3.2 Portfoliotheorie nach Markowitz................... 3 1.3.3 Computertomographie........................ 4 2 Unrestringierte nichtlineare Optimierung 7 2.1 Grundlagen und Optimalitätsbedingungen................. 7 2.1.1 Grundlagen.............................. 7 2.1.2 Optimalitätsbedingungen....................... 11 2.1.3 Konvexität............................... 14 2.2 Das Gradientenverfahren........................... 18 2.2.1 Richtung des steilsten Abstiegs................... 18 2.2.2 Die Armijo-Schrittweitenregel.................... 18 2.2.3 Konvergenz des Gradientenverfahren................ 21 2.2.4 Nachteile des Gradientenverfahren.................. 24 2.3 Allgemeine Abstiegsverfahren........................ 24 2.3.1 Ein allgemeines Konvergenzresultat................. 24 2.3.2 Interpretation der Zulässigkeitsbedingungen............ 26 2.3.3 Zulässigkeit der Armijo-Schrittweitenregel............. 28 2.3.4 Die Powell-Wolfe-Schrittweitenregel................. 31 2.4 Das Newton-Verfahren............................ 34 2.4.1 Das Newton-Verfahren für Gleichungssysteme........... 34 2.4.2 Das Newton-Verfahren für Optimierungsprobleme......... 39 2.4.3 Newton-artige Verfahren....................... 42 2.4.4 Quasi Newton Verfahren....................... 46 2.4.5 Das globalisierte Newton-Verfahren................. 50 2.5 Nichtlineare Ausgleichsprobleme....................... 56 2.5.1 Das Gauß-Newton-Verfahren..................... 56 2.5.2 Levenberg-Marquardt-Verfahren................... 57 i

Inhaltsverzeichnis 3 Restringierte Optimierung 61 3.1 Lineare Optimierung............................. 61 3.1.1 Motivation und Normalform..................... 61 3.1.2 Geometrische Interpretation..................... 63 3.1.3 Eine Anwendung aus der Spieltheorie................ 66 3.1.4 Das Simplexverfahren......................... 68 3.2 Restringierte nichtlineare Optimierung................... 73 3.2.1 Optimalitätsbedingungen....................... 73 3.2.2 Die Karush-Kuhn-Tucker-Bedingungen............... 77 3.2.3 Optimalitätsbedingungen zweiter Ordnung............. 82 3.2.4 Sequential Quadratic Programming................. 83 3.2.5 Penalty- und Barrier-Verfahren................... 86 4 Globale Optimierung 89 ii

1 Motivation und Einleitung 1.1 Optimierungaufgaben Diese Vorlesung widmet sich nur einer einzigen Aufgabe, nämlich der Minimierung einer Funktion f : X R, Solche Probleme heißen Minimierungsaufgaben, oder (da durch Negation von f offensichtlich auch Maximierungsaufgaben in diese Form gebracht werden können) Optimierungsaufgaben. f heißt Zielfunktion, X heißt zulässiger Bereich, die Elemente x X heißen zulässige Punkte, und die Forderung x X nennt man auch Nebenbedingung. Das Problem Finde einen (lokalen oder globalen) Minimierer x X von f! schreiben wir auch kurz als oder f(x) min! min f(x). x X u.d.n. x X Wir setzen in dieser Vorlesung stets X R n, n N voraus, wobei X Abschluss einer offenen Menge ist. Für unsere Algorithmen werden wir Differenzierbarkeitsforderungen an f stellen, und wir werden uns meist darauf beschränken, lokale Minima zu suchen. In diesem Sinne betrachten wir also endlich-dimensionale, kontinuierliche, glatte und lokale Optimierungsaufgaben. Optimierungsaufgaben werden im Englischen auch als program bezeichnen. Entsprechend nennt man z.b. die Lösung linearer Optimierungsaufgaben linear programming. 1.2 Einfache mathematische Beispiele 1.2.1 Unrestringierte lineare Optimierung Für X = R n spricht man auch von unrestringierter Optimierung. Betrachten wir den einfachsten Fall, dass die Zielfunktion linear ist, also f : R n R, f(x) := b T x x R n 1

KAPITEL 1. MOTIVATION UND EINLEITUNG mit einem b R n. Für x k = kb gilt f(x k ) = k b 2, die Minimierungsaufgabe min f(x) x R n besitzt also keine (globale) Lösung. f besitzt auch kein lokales Minimum (siehe Übungsaufgabe 1.1). 1.2.2 Lineare Ausgleichsrechnung Lässt sich ein lineares Gleichungssystem Ax = b, mit A R m n, b R m nicht exakt lösen, so begnügt man sich in der Praxis oft mit der sogenannten Kleinsten-Quadrate-Lösung, d.h. der Lösung des Minimierungsproblems min f(x) x R n mit f(x) = Ax b 2. Die globalen Minima von f sind genau die Lösungen der Normalengleichungen A T Ax = A T b (siehe Übungsaufgabe 1.2). 1.3 Komplexere Anwendungsbeispiele Wir skizzieren noch drei mit bedeutenden Preisen verbundene Anwendungsbeispiele für Optimierungsprobleme. 1.3.1 Minimalflächen 1 Zieht man einen geschlossenen Draht durch Seifenlauge, so bildet sich ein Film dessen Flächeninhalt minimal wird. Mathematisch können wir dies modellieren, indem wir zu einem Gebiet Ω R 2 und Randdaten r : Ω R eine Funktion u : Ω R suchen, die auf dem Rand mit r übereinstimmt und deren Graph minimale Oberfläche besitzt (vgl. die in der Vorlesung gemalten Skizze). 1 Jesse Douglas erhielt 1936 die Fields-Medaille für seinen Existenzbeweis für das Minimalflächenproblem. 2

1.3. KOMPLEXERE ANWENDUNGSBEISPIELE Zur näherungsweise numerischen Lösung dieses Problems diskretisieren wir die gesuchte Funktion u durch einen Vektor U R n und stellen einen funktionalen Zusammenhang A : R n R zwischen der Diskretisierung U und dem Flächeninhalt A(U) des zugehörigen Graphen auf. (U enthält beispielsweise die Auswertungen von u in den Knotenpunkten einer regulären Triangulierung von Ω und A(U) ist der Flächeninhalt des Graphen der zugehörigen stetigen und stückweise linearen Funktion, vgl. die in der Vorlesung gemalten Skizzen). Die diskretisierte Version des Minimalflächenproblem führt also auf ein Optimierungsproblem der Form A(U) min! u.d.n. U R n wobei n N die Anzahl der Freiheitsgrade in der Diskretisierung beschreibt und damit (bei immer besserer Diskretisierung) beliebig groß werden kann. Wird die Seifenhaut über ein Hindernis gespannt, so ergeben sich entsprechend restringierte Optimierungsprobleme. 1.3.2 Portfoliotheorie nach Markowitz 2 Ein Fondsmanager versucht n Finanzprodukte (Anleihen, Aktien, Derivate,... ) so zu kombinieren, dass er möglichst viel Gewinn bei möglichst geringem Risiko macht. Ein einfaches Modell ist, dass der zukünftige Wert (etwa nach Ablauf eines Jahres) der n Finanzprodukte zufällig verteilt ist und dass der Manager (aufgrund seiner Markterwartung oder aus historischen Daten) die Erwartungswerte µ j der Renditen kennt. Investiert er x j Euro in das j-te Finanzprodukt, so wird der zukünftige Wert des Portfolios zufallsverteilt sein mit Erwartungswert E(x) := n j=1 µ j x j. Um einen möglichst großen (erwarteten) Gewinn zu machen, betrachtet der Fondsmanager also das Optimierungsproblem n E(x) = µ T x = µ j x j max! j=1 unter der Nebenbedingung n j=1 x j = 1, wobei wir o.b.d.a. den den zur Verfügung stehenden Betrag auf 1 normiert haben. Dieses Optimierungsproblem wird offenbar trivialerweise dadurch gelöst, alles in das Finanzprodukt mit der höchsten erwarteten Rendite zu investieren. Kennt der Fondsmanager (wiederum aufgrund seiner Markterwartung oder aus historischen Daten) auch die Kovarianzmatrix Σ = (σ jk ) n j,k=1 R n n der Renditen, so ist die Varianz des zukünftigen Wert seines Portfolios gegeben durch n V (x) = x T Σx = x j Σ jk x k. 2 Harry M. Markowitz erhielt 1990 für seine Theorie der Portfolio-Auswahl den Wirtschaftsnobelpreis zusammen mit Merton H. Miller und William Sharpe. j,k=1 3

KAPITEL 1. MOTIVATION UND EINLEITUNG Akzeptieren wir die Varianz als Maß für das Risiko der gewählten Investmentstrategie, dann führt die Maximierung des Gewinns bei einer gegebenen Risikobereitschaft auf Optimierungsprobleme der Form µ T x max! u.d.n. x R n, x T Σx R und die Minimierung des Risikos bei einer festgesetzten Gewinnabsicht auf Optimierungsprobleme der Form x T Σx min! u.d.n. x R n, µ T x r. Weitere Nebenbedingungen können aus der Art der Finanzprodukte erwachsen (z.b. x j 0). Es ist naheliegend, nur Portfolio zu verwenden die beide obigen Optimierungsprobleme lösen, da ansonsten der gleiche erwartete Gewinn mit geringerem Risiko oder ein höherer Gewinn bei gleichen Risiko möglich wäre. Solche Portfolios heißen effizient. 1.3.3 Computertomographie 3 In der Computertomographie wird ein Schnittbild des Inneren eines Patienten erstellt, indem der Patient von verschiedenen Seiten mit Röntgenstrahlen durchleuchtet wird. In einer einfachen diskreten Modellierung unterteilen wir das gesuchte Schnittbild in n Pixel und nehmen an, dass die Gesamtabsorption eines Röntgenstrahls durch den Körper sich als Summe der Absorptionskoeffizienten aller passierten Pixel gewichtet mit der Strahllänge durch den Pixel ergibt (vgl. die in der Vorlesung gemalten Skizzen). So erhalten wir ein großes lineares Gleichungssystem Ax = b. Dabei ist x j der Absorptionskoeffizienten des j-ten Pixels, b i ist die Gesamtabschwächung des i-ten Röntgenstrahls und die Einträge A = (a ij ) i=1,...,m ergeben sich aus der Länge j=1,...,n des Weges des i-ten Röntgenstrahls durch das j-te Pixel. Wählen wir weniger Pixel als Strahlen (n < m), so ist das LGS überbestimmt und wir können (aufgrund der Messund Modellierungsfehler) nicht erwarten, dass eine exakte Lösung existiert. Wie in Abschnitt 1.2.2 führt das Problem, eine bestmögliche Lösung des LGS zu finden auf das Ausgleichsproblem Ax b min! u.d.n. x R n. Neuartige Tomographieverfahren beruhen häufig auf nicht-linearen Zusammenhängen zwischen den gesuchten physikalischen Koeffizienten und den gemessenen Größen und damit auf nicht-lineare Ausgleichsprobleme der Form F (x) b 2 min! u.d.n. x R n. 3 Allan M. Cormack und Godfrey Hounsfield erhielten 1979 für die Entwicklung der Computertomographie den Nobelpreis für Medizin. Die mathematischen Grundlagen der heute genutzten Algorithmen wurden 1917 durch den österreichischen Mathematiker Johann Radon entwickelt. 4

1.3. KOMPLEXERE ANWENDUNGSBEISPIELE Es muss an dieser Stelle erwähnt werden, dass Messfehler die optimal zu den gemessenen Daten passenden Lösungen in der Praxis häufig bis zur völligen Unbrauchbarkeit verfälschen. Auswege aus diesem sogenannten Problem der Schlechtgestelltheit sind Gegenstand der Vorlesung Regularisierung inverser Problem. 5

2 Unrestringierte nichtlineare Optimierung Dieses Kapitel folgt dem sehr empfehlenswerten Lehrbuch von Michael und Stefan Ulbrich [Ulbrich]. Wir betrachten das unrestringierte Optimierungsproblem min f(x) x R n für eine allgemeine (hinreichend glatte) Zielfunktion f : R n R. 2.1 Grundlagen und Optimalitätsbedingungen Wir wiederholen einige Grundbegriffe aus der Analysis und der Linearen Algebra. In diesem Abschnitt sei U R n stets eine offene Menge. 2.1.1 Grundlagen Für Vektoren x R n und Matrizen A R m n bezeichnen wir mit x := x T x und A = max x =1 Ax die Euklidische Vektornorm und die dadurch induzierte Matrixnorm. Für eine auf U stetig differenzierbare Funktion f 1 (x) F : U R m, F (x) =. f m (x) bezeichnen wir die Jacobi-Matrix mit f 1 (x) x 1... F (x) =. f m(x) x 1... f 1 (x) x n. f m(x) x n Rm n 7

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG und für eine skalare, auf U ein- bzw. zweimal stetig differenzierbare Funktion f : U R bezeichne f(x) = f (x) T = 2 f(x) = 2 f(x) x 2 1. 2 f(x)... x n x 1... den Gradient bzw. die Hesse-Matrix von f. 1 f(x) x 1. f(x) x n Rn, f(x) x 1 x n. Rn n f(x) x 2 n Für jedes d R n können wir die Richtungsableitung schreiben als Definition 2.1 Zu zwei Punkten x 0, x 1 R n heißt f d = lim f(x + td) f(x) t 0 t [x 0, x 1 ] := {x t := (1 t)x 0 + tx 1 : t [0, 1]} Verbindungsstrecke zwischen x 0 und x 1. = f(x) T d. (2.1) Satz 2.2 Sei f : U R stetig differenzierbar und x 0, x 1 U seien Punkte mit [x 0, x 1 ] U. Die Funktion g : t f(x t ), x t := (1 t)x 0 + tx 1 ist auf einer Umgebung von [0, 1] stetig differenzierbar und es gilt g (t) = f(x t ) T (x 1 x 0 ). Ist f zweimal stetig differenzierbar, dann ist auch g zweimal stetig differenzierbar und es gilt g (t) = (x 1 x 0 ) T 2 f(x t )(x 1 x 0 ). Beweis: Übungsaufgabe 1.4. Satz 2.3 (Lineare & quadratische Taylor-Formel skalarer Fkt.) Sei f : U R stetig differenzierbar, x U und ɛ > 0, so dass B ɛ (x) U. 1 Achtung: Die Notation 2 wird in der Literatur nicht einheitlich verwendet. Im Kontext partieller Differentialgleichung findet sich 2 auch als Notation für den Laplace-Operator. 8

2.1. GRUNDLAGEN UND OPTIMALITÄTSBEDINGUNGEN (a) Für alle d B ɛ (0) existiert ein s [0, 1] mit Außerdem gilt für alle d B ɛ (0) f(x + d) = f(x) + f(x + sd) T d. f(x + d) = f(x) + f(x) T d + ρ(d) und das Restglied ρ : B ɛ (0) R erfüllt ρ(d) = o( d ), d.h. ρ(d) lim d 0 d = 0. (b) Ist f : U R zweimal stetig differenzierbar, dann existiert für alle d B ɛ (0) ein s [0, 1] mit Außerdem gilt für alle d B ɛ (0) f(x + d) = f(x) + f(x) T d + 1 2 dt 2 f(x + sd)d f(x + d) = f(x) + f(x) T d + 1 2 dt 2 f(x)d + ρ(d) und das Restglied ρ : B ɛ (0) R erfüllt ρ(d) = o( d 2 ), d.h. ρ(d) lim d 0 d 2 = 0. Beweis: Das folgt mit Satz 2.2 sofort aus den eindimensionalen Taylor-Formeln. Für vektorwertige Funktionen existieren die Zwischenwerte in Satz 2.3 im Allgemeinen nicht mehr. Mit dem folgenden Satz lässt sich aber dennoch das Verhalten der Funktion zwischen zwei Werten x und x + d durch das Verhalten ihrer Ableitung zwischen diesen Werten abschätzen. Lemma 2.4 Sei F : U R m stetig differenzierbar, x U und ɛ > 0, so dass B ɛ (x) U. Für alle d B ɛ (0) gilt 1 ( 1 ) F (x + d) = F (x) + F (x + td)d dt = F (x) + F (x + td) dt d, also insbesondere Außerdem ist 0 F (x + d) F (x) d sup F (x + td). t [0,1] F (x + d) = F (x) + F (x)d + ρ(d), und das Restglied ρ : B ɛ (0) R m erfüllt ρ(d) = o( d ), d.h. ρ(d) lim d 0 d = 0. 0 9

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG Beweis: Da U offen ist, existiert δ > 0 so dass [x δd, x + (1 + δ)d] U. Wir definieren f : ( δ, 1 + δ) R m, f(t) := F (x + td) Offenbar ist f(t) = F (g(t)), wobei g : ( δ, 1 + δ) R n, g(t) := x + td und es ist g (t) = d. Aus der mehrdimensionalen Kettenregel folgt f (t) = F (g(t))g (t) = F (x + td)d und mit dem Hauptsatz der Differential- und Integralrechnung erhalten wir F (x + d) F (x) = f(1) f(0) = und damit die erste Behauptung. 1 0 f (t) dt = 1 0 F (x + td))d dt Die zweite Behauptung ist nichts anderes als die Definition der totalen Differenzierbarkeit. Nach dem Satz von Schwarz ist die Hesse-Matrix einer zweimal stetig differenzierbaren Funktion symmetrisch. Definition 2.5 Eine symmetrische Matrix A = (a ij ) i,j=1,...,n R n n heißt (a) positiv semidefinit, falls x T Ax 0 für alle x R n (b) positiv definit, falls x T Ax > 0 für alle 0 x R n A heißt negativ (semi-)definit, falls A positiv (semi-)definit ist. Satz 2.6 Zu einer symmetrischen Matrix A R n n existiert eine ONB aus Eigenvektoren v 1,..., v n R n mit zugehörigen Eigenwerten λ 1,..., λ n R, also v T j v k = δ jk und Av k = λ k v k. Es ist also n A = λ k v k vk T k=1 10

2.1. GRUNDLAGEN UND OPTIMALITÄTSBEDINGUNGEN und mit λ min (A) := min k=1,...,n λ k, λ max (A) := max k=1,...,n λ k gilt λ min (A) = x T Ax min 0 x R n x 2 xt Ax x 2 max x T Ax 0 x R n x 2 = λ max(a). Insbesondere ist eine symmetrische Matrix A also genau dann positiv semidefinit (bzw. positiv definit / negativ semidefinit / negativ definit), wenn alle Eigenwerte nicht-negativ (bzw. positiv / nicht-positiv / negativ) sind. Für symmetrische, positiv semidefinite A R n n gilt außerdem A = max k=1,...,n λ k. Beweis: Wir setzen dies als bekannt voraus und verweisen auf die Grundvorlesungen zur linearen Algebra. Definition 2.7 Für eine invertierbare Matrix A R n n definieren wir die Kondition durch κ(a) = A A 1. Für symmetrische positiv definite Matrizen gilt offenbar κ(a) = λ max (A)λ max (A 1 ) = λ max(a) λ min (A). Bemerkung 2.8 Der Name Kondition kommt daher, dass κ(a) wegen A 1 (b + δ) A 1 b A 1 b = A 1 δ A 1 b 1 A A 1 δ A A 1 b κ(a) δ b ein Maß für die relative Fehlerverstärkung bei Inversion von A ist. 2.1.2 Optimalitätsbedingungen Definition 2.9 Sei X R n und f : X R. Ein Punkt x X heißt (a) globales Minimum von f in X, falls f(x) f(y) für alle y X. (b) lokales Minimum von f in X, falls ein ɛ > 0 existiert, so dass x globales Minimum von f in X B ɛ (x) ist, also f(x) f(y) für alle y X B ɛ (x). 11

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG (c) striktes 2 globales Minimum von f, falls f(x) < f(y) für alle x y X. (d) striktes lokales Minimum von f, falls ein ɛ > 0 existiert, so dass x striktes globales Minimum von f in X B ɛ (x) ist, also f(x) < f(y) für alle x y X B ɛ (x). Analog definieren wir (strikte) globale oder lokale Maxima. Definition und Satz 2.10 (Notwendige Optimalitätsbed. 1. Ordnung) Sei = U R n offen und f : U R stetig differenzierbar. Ist x U ein lokales Minimum von f, dann gilt f(x) = 0. Punkte mit f(x) = 0 heißen stationäre Punkte. Beweis: Für jedes d R n gilt gemäß (2.1) f(x) T f(x + td) f(x) d = lim t 0 + t 0. Für d := f(x) folgt, dass f(x) 2 0 und damit f(x) = 0. Satz 2.11 (Notwendige Optimalitätsbed. 2. Ordnung) Sei U R n offen und f : U R zweimal stetig differenzierbar. Ist x U ein lokales Minimum von f, dann ist x ein stationärer Punkt und 2 f(x) ist positiv semidefinit, also (a) f(x) = 0 (b) d T 2 f(x)d 0 für alle d R n Beweis: Definition und Satz 2.10 liefert (a). Zum Beweis von (b) sei d R n und ɛ > 0 sei so klein, dass B ɛ (x) U und x globales Minimum in B ɛ (x) ist. Wir verwenden die quadratische Taylor-Formel in Satz 2.3 mit td anstelle von d f(x + td) = f(x) + t f(x) T d + t2 2 dt 2 f(x)d + ρ(td) t < ɛ d. Mit f(x + td) f(x) und f(x) = 0 folgt, dass d T 2 f(x)d 2 ɛ ρ(td) t < t2 d und mit ρ(td) t 2 0 erhalten wir, dass d T 2 f(x)d 0. 2 auch: strenges oder isoliertes 12

2.1. GRUNDLAGEN UND OPTIMALITÄTSBEDINGUNGEN Satz 2.12 (Hinreichende Optimalitätsbed. 2. Ordnung) Sei U R n offen und f : U R zweimal stetig differenzierbar. Ist x U ein stationärer Punkt mit positiv definiter Hesse-Matrix, also (a) f(x) = 0 (b) d T 2 f(x)d > 0 für alle 0 d R n dann ist x ein striktes lokales Minimum von f. Beweis: Wegen (b) und Satz 2.6 ist µ := λ min ( 2 f(x)) > 0 und d T 2 f(x)d µ d 2 d R n. Wir verwenden wieder die quadratische Taylor-Formel aus Satz 2.3. Für hinreichend kleine ɛ > 0 ist B ɛ (x) U, f(x + d) = f(x) + f(x) T d + 1 2 dt 2 f(x)d + ρ(d) d B ɛ (0) und ρ(d) µ 4 d 2 d B ɛ (0). Wegen f(x) = 0 gilt also f(x + td) f(x) + µ 4 d 2 d B ɛ (0), so dass x ein striktes lokales Minimum ist. Beispiel 2.13 (a) Die notwendige Optimalitätsbedingung 1. Ordnung ist nicht hinreichend. Nicht jeder stationäre Punkt ist ein Minimum. Für f(x) = x 2, x R ist der einzige stationäre Punkt x = 0 ein Maximum. Für f(x) = x 3 ist der einzige stationäre Punkt weder ein Minimum noch ein Maximum (solche Punkte heißen auch Sattelpunkte, vgl. die in der Vorlesung gemalte Skizze). (b) Die notwendige Optimalitätsbedingung 2. Ordnung ist nicht hinreichend. Für f(x) := x 3 ist f(0) = f (0) = 0, 2 f(0) = f (0) = 0. Die Hesse-Matrix ist im stationären Punkt x = 0 also positiv semidefinit, aber x = 0 ist weder Minimum noch Maximum. (c) Die hinreichende Optimalitätsbedingung 2. Ordnung ist nicht notwendig. Für f(x) = x 4 ist der stationäre Punkt x = 0 ein Minimum, in dem die Hesse-Matrix 2 f(0) = f (0) = 0 nicht positiv definit ist. 13

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG 2.1.3 Konvexität Wir werden in dieser Vorlesung Algorithmen entwickeln, mit denen stationäre Punkte gefunden werden können. Für konvexe Funktionen stimmen diese mit den globalen Minima überein. Definition 2.14 Eine Menge X R n heißt konvex, falls alle Verbindungsstrecken zweier Punkte in X verlaufen, also (1 λ)x + λy X x, y X, λ [0, 1]. Zu gegebenen x, y X schreiben wir auch kurz x λ := (1 λ)x + λy λ [0, 1]. Definition 2.15 Sei X R n eine konvexe Menge. Eine Funktion f : X R heißt (a) konvex, falls (b) strikt 3 konvex, falls f((1 λ)x + λy) (1 λ)f(x) + λf(y) x, y X, λ [0, 1]. f((1 λ)x + λy) < (1 λ)f(x) + λf(y) x, y X, x y, λ (0, 1). (c) gleichmäßig konvex, falls ein µ > 0 existiert mit f((1 λ)x + λy) + µλ(1 λ) y x 2 (1 λ)f(x) + λf(y) für alle x, y X, λ [0, 1]. Satz 2.16 Sei U R n offen und f : U R stetig differenzierbar. f ist auf einer konvexen Menge X U (a) genau dann konvex, wenn (b) genau dann strikt konvex, wenn f(x) T (y x) f(y) f(x) x, y X. f(x) T (y x) < f(y) f(x) x, y X, x y. (c) genau dann gleichmäßig konvex, wenn ein µ > 0 existiert mit 3 auch: streng f(x) T (y x) + µ y x 2 f(y) f(x) x, y X. 14

2.1. GRUNDLAGEN UND OPTIMALITÄTSBEDINGUNGEN Beweis: (a) = : Ist f konvex, dann ist f(x) T (y x) = lim t 0 f(x + t(y x)) f(x) t = lim t 0 f((1 t)x + ty) f(x) t lim t 0 (1 t)f(x) + tf(y) f(x) t = f(y) f(x). (a) = : Sei λ [0, 1] und x, y X. Für x λ := (1 λ)x + λy gilt nach Voraussetzung und damit (1 λ)f(x) + λf(y) f(x) f(x λ ) f(x λ ) T (x x λ ) f(y) f(x λ ) f(x λ ) T (y x λ ) = (1 λ)(f(x) f(x λ )) + λ(f(y) f(x λ )) + f(x λ ) (1 λ) f(x λ ) T (x x λ ) + λ f(x λ ) T (y x λ ) + f(x λ ) = f(x λ ) T ((1 λ)x + λy x λ ) + f(x λ ) = f(x λ ). (b) = : Sei f strikt konvex und x, y X, x y. Für x 1 2 = y+x 2 gilt f(x) T (y x) = 2 f(x) T (x 1 x) (a) 2 ( f(x 1 ) f(x) ) 2 2 ( ) f(x) + f(y) < 2 f(x) = f(y) f(x). 2 (b) = : wie (a) = mit < statt (c) = : Ist f gleichmäßig konvex, dann folgt wie in (a) f(x) T f(x + t(y x)) f(x) (y x) = lim t 0 t f((1 t)x + ty) f(x) = lim t 0 t lim t 0 (1 t)f(x) + tf(y) f(x) µt(1 t) y x 2 t = f(y) f(x) µ y x 2. (c) = : Sei λ [0, 1], x, y X und x λ := (1 λ)x + λy. Mit x x λ = λ(x y) und x λ y = (1 λ)(x y) 15

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG folgt wie in (a) (1 λ)f(x) + λf(y) = (1 λ)(f(x) f(x λ )) + λ(f(y) f(x λ )) + f(x λ ) (1 λ) ( f(x λ ) T (x x λ ) + µ x x λ 2) + λ ( f(x λ ) T (y x λ ) + µ y x λ 2) + f(x λ ) = ( (1 λ)µλ 2 + λµ(1 λ) 2) y x 2 + f(x λ ) = µ(1 λ)λ y x 2 + f(x λ ), womit alle Behauptungen gezeigt sind. Satz 2.17 Sei X R n offen und konvex. Eine zweimal stetig differenzierbare Funktion f : X R ist (a) genau dann konvex, wenn 2 f(x) für alle x X positiv semidefinit ist, also d T 2 f(x)d 0 x X, d R n (b) strikt konvex, falls 2 f(x) für alle x X positiv definit ist, also d T 2 f(x)d > 0 x X, 0 d R n (c) genau dann gleichmäßig konvex, wenn 2 f(x) auf X gleichmäßig positiv definit ist, d.h. ein µ > 0 existiert, so dass d T 2 f(x)d µ d 2 x X, d R n. Beweis: (a) = : Sei f konvex und d R n. Für alle hinreichend kleinen t > 0 gilt unter Verwendung der quadratischen Taylor-Formel in Satz 2.3 und Satz 2.16 4 t 2 2 dt 2 f(x)d + ρ(td) = f(x + td) f(x) t f(x) T d 0, also d T 2 f(x)d 2ρ(td) t 2 und mit ρ(td) 0 folgt d T 2 f(x)d 0. t 2 (a) = : Seien x, y X. Nach Satz 2.3 existiert ein s [0, 1] mit f(y) = f(x) + f(x) T d + 1 2 (y x)t 2 f(x + s(y x))(y x) f(x) + f(x) T (y x), so dass aus Satz 2.16 die Konvexität von f folgt. 4 Hier wird die Voraussetzung, dass X offen ist, benötigt, damit x+td X für hinreichend kleine t > 0 gilt. 16

2.1. GRUNDLAGEN UND OPTIMALITÄTSBEDINGUNGEN (b) = : analog (a) = mit > statt (c) = : Analog (a) = erhalten wir t 2 2 dt 2 f(x)d + ρ(td) µ td 2 = f(x + td) f(x) t f(x) T d µ td 2 0, also d T 2 f(x)d µ d 2 2ρ(td) t 2 und mit ρ(td) 0 folgt d T 2 f(x)d µ d 2. t 2 (c) = : Analog (a) = existiert zu x, y X ein s [0, 1] mit f(y) = f(x) + f(x) T d + 1 2 (y x)t 2 f(x + s(y x))(y x) f(x) + f(x) T (y x) + µ y x 2, so dass aus Satz 2.16 die gleichmäßige Konvexität folgt. Beispiel 2.18 f(x) = x 4 ist strikt konvex, aber 2 f(x) = f (x) = 12x 2 ist in x = 0 nicht positiv definit. Die fehlende Implikation in Satz 2.17(b) gilt also tatsächlich nicht. Satz 2.19 Sei X R n eine konvexe Menge und f : X R eine konvexe Funktion. (a) Jedes lokale Minimum von f auf X ist auch globales Minimum von f auf X. (b) Ist f strikt konvex, dann besitzt f höchstens ein lokales Minimum auf X. Falls ein lokales Minimum existiert, so ist es nach (a) das strikte globale Minimum. (c) Ist f stetig differenzierbar auf einer X enthaltenden offenen Menge, dann ist jeder stationäre Punkt in X ein globales Minimum von f in X. Beweis: (a) Sei x X kein globales Minimum von f. Dann existiert ein y X mit f(y) < f(x). Aus der Konvexität folgt, dass f(x + t(y x)) (1 t)f(x) + tf(y) < f(x) t (0, 1], so dass x kein lokales Minimum sein kann. (b) Seien x, y X zwei lokale Minima von f. Nach (a) sind x und y dann auch globale Minima und insbesondere ist f(x) = f(y). Wäre x y, so folgt aus der strikten Konvexität, dass f( x + y f(x) + f(y) ) < = f(x) = f(y), 2 2 und damit ein Widerspruch zur globalen Minimalität. Es ist also x = y. (c) Ist x X ein stationärer Punkt, dann gilt nach Satz 2.16 f(y) f(x) f(x) T (y x) = 0. Jeder stationäre Punkt ist also globales Minimum. 17

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG 2.2 Das Gradientenverfahren In diesem Abschnitt sei f : R n R stets eine stetig differenzierbare Funktion. Zur Vereinfachung der Schreibweise nummerieren wir die Folgenglieder einer Folge von Vektoren in dieser Vorlesung üblicherweise mit tiefgestelltem Index, also x 0, x 1, x 2,... R n. Wenn es in konkreten Beispielen zweckmäßig ist auf die Komponenten der Vektoren zuzugreifen, so wechseln wir fallweise zur Notation mit hochgestelltem Index, also x (0) x x (0) = 1. (1), x(1) = 1.,... Rn x (0) n x (1) n 2.2.1 Richtung des steilsten Abstiegs In der Umgebung eines Punktes x 0 R n gilt nach der linearen Taylor-Formel f(x) f(x 0 ) + f(x 0 ) T (x x 0 ). In einer Kugel mit Radius r um x 0 nimmt die lineare Taylor-Approximation ihr Minimum an bei r x = x 0 f(x 0 ) f(x 0) (siehe Übungsaufgabe 3.1). In der linearen Approximation ist x x 0 = s f(x 0 ), s > 0 also die Richtung des steilsten Abstiegs von f. Eine naheliegende Idee zur numerischen Lösung des Minimierungsproblems f(x) min! ist es daher, beginnend mit einem Startwert x 0, eine Folge von Iterierten x k durch x k+1 = x k s k f(x k ) mit noch zu bestimmenden Schrittweiten s k Gradientenverfahren, siehe Algorithmus 2. > 0 zu wählen. Dies ist das sogenannte 2.2.2 Die Armijo-Schrittweitenregel In der linearen Approximation erwarten wir dass für s k > 0 und d k R n (im Gradientenvefahren: d k = f(x k )) gilt f(x k+1 ) = f(x k + s k d k ) f(x k ) + s k f(x k ) T d k. 18

2.2. DAS GRADIENTENVERFAHREN In der linearen Approximation würden wir die Schrittweite s k möglichst groß wählen, damit f(x k+1 ) möglichst klein wird. Auf der anderen Seite ist die lineare Approximation aber nur in einer kleiner Umgebung von x k eine gute Approximation an f. Die Idee der Armijo-Schrittweitenregel ist es daher, die tatsächlich erzielte Abnahme der Zielfunktion f(x k ) f(x k + s k d k ) mit der aus der linearen Approximation erwarteten Abnahme s k f(x k ) T d k zu vergleichen. Nur wenn die tatsächliche Abnahme einen vorgegebenen Bruchteil (z.b. γ = 1%) der erwarteten erreicht, wird der Schritt durchgeführt. Ansonsten wird die Schrittweite als zu groß eingeschätzt (die lineare Approximation scheint für diese Schrittweite keine gute Näherung mehr zu sein) und die Schrittweite verkürzt (z.b. halbiert, β = 0.5). Algorithmus 1 bestimmt zu gegebenen Parametern β (0, 1) und γ (0, 1) eine Schrittweite s k, die die Armijo-Bedingung f(x k+1 ) f(x k ) + γs k f(x k ) T d k (2.2) erfüllt. Algorithmus 1 Armijo-Schrittweitenregel Gegeben: Parameter β (0, 1) und γ (0, 1) (z.b. β = 0.5, γ = 0.01) Gegeben: aktuelle Iterierte x k, Richtung d k R n s k := 1/β repeat s k := βs k x k+1 := x k + s k d k until f(x k+1 ) f(x k ) + γs k f(x k ) T d k return x k+1 Algorithmus 1 ist für allgemeine Suchrichtungen formuliert. Die Kombination aus Gradientenverfahren und Armijo-Schrittweitenregel fassen wir in Algorithmus 2 zusammen. 19

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG Algorithmus 2 Gradientenverfahren mit Armijo-Schrittweitenregel Gegeben: Startwert x 0 R n Gegeben: Armijo-Parameter β (0, 1) und γ (0, 1) (z.b. β = 0.5, γ = 0.01) for k := 0, 1, 2,... do if f(x k ) = 0 then STOP else s k := 1/β repeat s k := βs k x k+1 := x k s k f(x k ) until f(x k+1 ) f(x k ) γs k f(x k ) 2 end if end for return x 0, x 1, x 2,... Wir müssen noch untersuchen, ob Algorithmus 1 terminiert, also die Armijo-Schrittweitenregel tatsächlich eine Schrittweite finden wird. Dies zeigen wir nicht nur für das Gradientenverfahren (mit d k = f(x k )) sondern gleich für allgemeine Abstiegsverfahren, siehe Abschnitt 2.3. Definition 2.20 Ein Vektor 0 d R n heißt Abstiegsrichtung von f im Punkt x falls f(x) T d < 0. Satz 2.21 Ist d eine Abstiegsrichtung für f im Punkt x, so existiert für jedes γ (0, 1) ein t > 0 mit f(x + sd) f(x) + γs f(x) T d s [0, t]. Insbesondere terminiert die Armijo-Schrittweitenregel in Algorithmus 1 für jede Abstiegsrichtung nach endlich vielen Schritten. Beweis: Für s 0 ist f(x + sd) f(x) γs f(x) T d s (1 γ) f(x) T d < 0. Die Armijo-Bedingung ist also für hinreichend kleine s erfüllt. Beispiel 2.22 Satz 2.21 zeigt, dass in Richtung einer Abstiegsrichtung eine Funktion lokal abnimmt. Die Umkehrung gilt nicht. f(x) = x 2 nimmt im Punkt x = 0 in die Richtung d = 1 ab, aber d = 1 ist keine Abstiegsrichtung für f in x = 0. 20

2.2. DAS GRADIENTENVERFAHREN Bemerkung 2.23 Die Armijo-Schrittweitenregel für das Gradientenverfahren können wir auch als speziellen Fall eines Trust-Region-Verfahren interpretieren: In der aktuellen Iterierten x k ersetzen wir f durch seine lineare Näherung f(x) f(x k ) + f(x k ) T (x x k ) und vertrauen dieser Näherung jedoch nur in einer Kugel x x k k (der Trust- Region). Dann lösen wir das restringierte Minimierungsproblem f(x k ) + f(x k ) T (x x k ) min! u.d.n. x B k (x k ) und erhalten die Lösung x k+1 = x k s k f(x k ) (mit s k = k / f(x k ) ). Um zu entscheiden, ob wir diese Lösung akzeptieren vergleichen wir die vorhergesagte Abnahme der Zielfunktion ( predicted reduction) mit der tatsächlichen Abnahme ( actual reduction) pred k = f(x k ) T (x k+1 x k ) = s k f(x k ) 2, ared k = f(x k ) f(x k+1 ). Erreicht die tatsächliche Abnahme wenigstens einen vorher festgelegten Bruchteil γ der vorhergesagten, ared k pred k γ, so wird der Schritt akzeptiert und die Iteration mit x k+1 weitergeführt. Wird dieser Bruchteil nicht erreicht, so wird der Schritt verworfen und mit einer verkleinerten Trust- Region wiederholt. 2.2.3 Konvergenz des Gradientenverfahren Wir können nicht erwarten, dass das Gradientenverfahren in Algorithmus 2 ohne zusätzliche Annahmen gegen ein Minimum von f konvergiert. Die Iterierten können divergieren, z.b. für die lineare Zielfunktion aus Abschnitt 1.2.1. Außerdem terminiert das Verfahren, wenn ein stationärer Punkt erreicht ist, dies kann auch ein Sattellpunkt oder sogar ein Maximum sein. Der folgende Satz zeigt aber zumindest, dass wenn die Iterierten eine konvergente Teilfolge besitzen, diese gegen einen stationären Punkt konvergiert. Wir nennen solche Resultate in dieser Vorlesung Präkonvergenz. Satz 2.24 (Präkonvergenz des Gradientenverfahrens) Algorithmus 2 terminiert entweder nach endlich vielen Schritten an einem stationären Punkt x k oder er erzeugt eine Folge (x k ) k N von Iterierten mit den Eigenschaften (a) f(x k+1 ) < f(x k ) (b) Jeder Häufungspunkt von x k ist ein stationärer Punkt von f. 21

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG Beweis: Terminiert Algorithmus 2 an einem x k so gilt f(x k ) = 0. Terminiert der Algorithmus nicht, so ist f(x k ) 0 für alle k N. Aufgrund der Armijo-Schrittweitenregel erfüllen die Iterierten womit (a) gezeigt ist. f(x k+1 ) f(x k ) γs k f(x k ) T f(x k ) < f(x k ), Zum Beweis von (b) sei x R n ein Häufungspunkt von x k, d.h. es existiert eine unendliche Indexmenge L N, so dass Wegen der Stetigkeit von f gilt lim x l = x L l lim f(x l) = f(x) L l und da f(x k ) monoton fällt, folgt aus der Konvergenz dieser Teilfolge die Konvergenz der ganzen Folge. Es gilt also lim k f(x k) = f(x) und damit insbesondere f(x k ) f(x k+1 ) 0. Alle Schritte erfüllen die Armijo-Bedingung Es gilt also und damit insbesondere auch γs k f(x k ) 2 f(x k ) f(x k+1 ) 0. lim s k f(x k ) 2 = 0 k lim s l f(x l ) 2 = 0. L l Wegen der Stetigkeit von f konvergiert ( f(x l )) l L gegen f(x) und es folgt dass entweder lim s l = 0 oder f(x) = 0. L l Im zweiten Fall ist die Behauptung bewiesen. Es sei also (s l ) l L eine Nullfolge. Insbesondere muss dann für fast alle (o.b.d.a. für alle) l L eine Verkürzung der Schrittweite bei der Armijo-Regel in Algorithmus 1 stattgefunden haben. Die Schrittweite s l /β erfüllte also die Armijo-Bedingung noch nicht, d.h. ( ) f x l s l β f(x l) > f(x l ) γ s l β f(x l) 2 l L. Nach Satz 2.3 existiert für jedes l L ein σ l [0, s l ] mit β γ s ( l β f(x l) 2 < f x l s ) l β f(x l) f(x l ) = s l β f (x l σ l f(x l )) T f(x l ). Da σ l 0 für L l erhalten wir γ f(x) 2 f(x) 2 und wegen γ < 1 folgt auch in diesem Fall f(x) = 0. 22

2.2. DAS GRADIENTENVERFAHREN Lemma 2.25 Sei (x k ) k N R n eine Folge und x R n. Besitzt jede Teilfolge von (x k ) k N wiederum eine (Teil-)Teilfolge, die gegen x konvergiert, so konvergiert die ganze Folge (x k ) k N gegen x. Beweis: Angenommen (x k ) k N konvergiert nicht gegen x. Dann gibt es eine Umgebung von x, außerhalb derer unendliche viele Folgenglieder liegen. Diese bilden dann aber eine Teilfolge, die keine gegen x konvergente (Teil-)Teilfolge besitzt. Folgerung 2.26 (a) Sei C > 0, so dass die Niveaumenge f 1 (], C]) := {x R n : f(x) C} beschränkt ist und in ihr nur ein stationärer Punkt liegt. Dann ist dieser stationäre Punkt das globale Minimum von f und das Gradientenverfahren konvergiert für jeden Startwert x 0 mit f(x 0 ) C gegen das Minimum. (b) Ist f konvex, dann terminiert Algorithmus 2 entweder nach endlich vielen Schritten an einem globalen Minimum oder es erzeugt eine Folge, deren Häufungspunkte globale Minima von f sind. (c) Ist f sogar strikt konvex und besitzt ein Minimum, und existiert ein C > 0, so dass die Niveaumenge f 1 (], C]) beschränkt ist, dann konvergiert die Folge aus Algorithmus 2 für jeden Startwert x 0 R n mit f(x 0 ) C gegen das globale Minimum von f. Folgerung 2.26 lässt offen, ob das Gradientenverfahren für strikt konvexe Funktionen mit Minimum aufgrund von unbeschränkten Niveaumengen scheitern kann. Dass dies nicht der Fall ist, zeigt der folgende Satz. Satz 2.27 Ist f : R n R konvex und besitzt f ein eindeutiges Minimum, so sind alle Niveaumengen von f beschränkt. Insbesondere konvergiert das Gradientenverfahren für strikt konvexe Funktionen mit Minimum für jede Wahl des Anfangswerts gegen das Minimum. Beweis: Sei f : R n R konvex und ˆx R n der Minimierer von f. Zu jedem Radius r > 0 definieren wir C r := min{f(x) : x B r (ˆx)}. Wir zeigen, dass (a) f 1 (], C r ]) B r (ˆx), (b) C r für r. 23

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG Sei r > 0 und x B r (ˆx). Dann gilt für t := und mit der Konvexität von f folgt dass r x ˆx ˆx + t(x ˆx) B r (ˆx) und 0 < t < 1 C r f(ˆx + t(x ˆx)) (1 t)f(ˆx) + tf(x) < (1 t)f(x) + tf(x) = f(x) (2.3) und wir erhalten (a). Aus (2.3) folgt außerdem für alle x B r (ˆx) f(x) 1 t (C r f(ˆx)) + f(ˆx) = Es gilt also für alle R > r x ˆx (C r f(ˆx)) + f(ˆx). r C R = min{f(x) : x B R (ˆx)} R r (C r f(ˆx)) + f(ˆx), so dass auch (b) und damit die Behauptung folgt. 2.2.4 Nachteile des Gradientenverfahren Die Verwendung der Richtung des steilsten Abstiegs ist sehr naheliegend. Schon für einfache quadratische Zielfunktionen ist diese Richtung jedoch nicht optimal, vgl. die in der Vorlesung gemalten Skizzen. Die daraus resultierende langsame Konvergenzgeschwindigkeit des Verfahrens ist Gegenstand des 4. Übungsblattes. 2.3 Allgemeine Abstiegsverfahren Es sei weiterhin f : R n R stets eine differenzierbare Funktion. Gemäß Übungsblatt 4 ist ein Abstieg in Richtung des steilsten Abstiegs nicht optimal. Wir untersuchen deshalb jetzt, wann allgemeine Abstiegsverfahren (siehe Algorithmus 3) konvergieren. 2.3.1 Ein allgemeines Konvergenzresultat Eine natürliche Minimalforderung 5 an die Suchrichtungen und Schrittweiten ist das d k Abstiegsrichtungen sind, und dass sich der Zielfunktionalwert in jedem Schritt verringern soll. f(x k ) T d k < 0 und f(x k + s k d k ) < f(x k ) k N. (2.4) 5 In der Literatur wird der Begriff Abstiegsverfahren oft nur für solche Verfahren verwendet, die diese Minimalforderungen erfüllen. 24

2.3. ALLGEMEINE ABSTIEGSVERFAHREN Algorithmus 3 Allgemeines Abstiegsverfahren Gegeben: Startwert x 0 R n for k := 0, 1,... do if f(x k ) = 0 then STOP else Wähle Suchrichtung d k Wähle Schrittweite s k x k+1 := x k + s k d k end if end for return x 1, x 2, x 3,... Durch zwei weitere Forderungen an die Suchrichtungen und Schrittweiten können wir (Prä-)Konvergenzresultate in der Form von Satz 2.24 zeigen. Wir formulieren die Bedingungen zunächst abstrakt: Definition 2.28 Das allgemeine Abstiegsverfahrens in Algorithmus 3 besitzt (a) zulässige Schrittweiten, falls f(x k + s k d k ) < f(x k ) und für jede konvergente Teilfolge (x l ) l L der Iterierten gilt (b) zulässige Suchrichtungen, falls f(x l ) T d l lim L l d l f(x k ) T d k < 0 und für jede konvergente Teilfolge (x l ) l L der Iterierten f(x l ) T d l lim L l d l Des Beweis des folgende Satz ist mit dieser Definition trivial. = 0. (2.5) = 0 = lim L l f(x l) = 0. (2.6) Satz 2.29 (Präkonvergenz allgemeiner Abstiegsverfahren) Das allgemeine Abstiegsverfahrens in Algorithmus 3 besitze zulässige Schrittweiten und Suchrichtungen. Dann terminiert das Verfahren entweder nach endlich vielen Schritten an einem stationären Punkt x k oder es erzeugt eine Folge (x k ) k N von Iterierten mit den Eigenschaften (a) f(x k+1 ) < f(x k ) 25

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG (b) Jeder Häufungspunkt von x k ist ein stationärer Punkt von f. Beweis: Dies folgt sofort aus Definition 2.28. Bemerkung 2.30 Zum Nachweis der Zulässigkeit von Schrittweiten ist die folgende Beobachtung nützlich, die wir bereits im Beginn vom Beweis von Satz 2.24 ausgenutzt haben. Erfüllen die Schrittweiten die Bedingung f(x k + s k d k ) < f(x k ), und existiert eine konvergente Teilfolge der Iterierten (x k ) k N, so ist (f(x k )) k N eine monoton fallende Folge mit konvergenter Teilfolge. Es muss also die gesamte Folge (f(x k )) k N konvergieren und insbesondere gilt f(x k ) f(x k+1 ) 0. 2.3.2 Interpretation der Zulässigkeitsbedingungen Zur Interpretation der Zulässigkeitsbedingungen suchen wir nach intuitiven Eigenschaften, die diese abstrakten Bedingungen sicherstellen. Hierfür beginnen wir mit den Suchrichtungen. Zulässigkeit der Suchrichtungen. Die Bedingung f(x k ) d k cos ( f(x k ), d k ) = f(x k ) T d k > 0 besagt, dass der Winkel zwischen Suchrichtung und der Richtung des steilsten Abstiegs betragsmäßig unter π/2 liegt. Es ist naheliegend zu fordern, dass die Suchrichtungen sich auch nicht für k diesem Winkel annähern sollten, also α > 0 : cos ( f(x k ), d k ) = Diese Forderung heißt Winkelbedingung. f(x k) T d k f(x k ) d k α. (2.7) Satz 2.31 Seien (d k ) k N die Suchrichtungen eines allgemeinen Abstiegsverfahrens. Erfüllen die Suchrichtungen die Winkelbedingung (2.7), so sind sie zulässig. Beweis: Aus (2.7) folgt f(x k ) T d k < 0 und f(x k ) 1 α f(x k ) T d k, d k so dass die Zulässigkeitsbedingungen erfüllt sind. 26

2.3. ALLGEMEINE ABSTIEGSVERFAHREN Bemerkung 2.32 Die Suchrichtungen sind auch bereits zulässig, wenn sie verallgemeinerte Winkelbedingungen der Form α > 0, p > 1 : f(x k ) T d k f(x k ) d k α f(x k) p oder α 1, α 2 > 0, p > 1 : f(x k ) T d k f(x k ) d k min{α 1, α 2 f(x k ) p } erfüllen (siehe Übungsaufgabe 5.2). Insbesondere zeigt der Fall p > 0, dass der Winkel zwischen Suchrichtung und der Richtung des steilsten Abstiegs betragsmäßig beliebig nah an π/2 herankommen darf, solange gleichzeitig der Gradient gegen Null konvergiert. Dies werden wir im Abschnitt über globalisierte Newton-Verfahren ausnutzen. Beispiel 2.33 (a) Die Suchrichtungen d k = f(x k ) erfüllen offensichtlich die Winkelbedingung und sind daher zulässig. (b) Seien A k R n n symmetrische und positiv definite Matrizen mit 0 < c λ min (A k ) λ max (A k ) C Wir betrachten die (beim Newton-Verfahren in Abschnitt 2.4 verwendeten) Suchrichtungen d k = A 1 k f(x k). Es ist f(x k ) T d k f(x k ) d k = f(x k) T A 1 k f(x k) f(x k ) A 1 k f(x k) λ min(a 1 k ) f(xk) 2 f(x k ) 2 A 1 k = λ min(a 1 k ) λ max (A 1 k ) = λ min(a k ) λ max (A k ) c C. Diese Suchrichtungen erfüllen also die Winkelbedingung und sind damit zulässig. Zulässigkeit der Schrittweiten. Zur Interpretation der Forderung an die Schrittweiten, schätzen wir zunächst ab, wie weit sich f durch einen Schritt in die Richtung d verkleinern lässt. Für zweimal stetig differenzierbares f folgt aus Satz 2.3, dass ein σ [0, s] existiert mit f(x + sd) = f(x) + s f(x) T d + s2 2 dt 2 f(x + σd)d Mit C := max σ [0,s] 2 f(x + σd) ist also f(x + sd) f(x) + s f(x) T d + s2 2 C d 2 27

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG und das Polynom auf der rechten Seite besitzt offenbar sein Minimum in s = f(x)t d C d 2. und dort ist f(x + s d) f(x) 1 f(x) T d 2 2C d 2. Eine Verkleinerung von f um 1 f(x) T d 2 ist also möglich. Wenn in einem Abstiegsverfahren diese mögliche Verkleinerung zumindest bis auf eine Konstante erreicht wird, so 2C d 2 heißen die verwendeten Schrittweiten effizient. Definition 2.34 Seien (d k ) k N und (s k ) k N die Suchrichtungen und Schrittweiten eines allgemeinen Abstiegsverfahrens. Die Schrittweiten s k heißen effizient, falls ein θ > 0 existiert, so dass f(x k + s k d k ) f(x k ) θ f(x k) T d k 2 d k 2. Satz 2.35 Seien (d k ) k N und (s k ) k N die Suchrichtungen und Schrittweiten eines allgemeinen Abstiegsverfahrens, das die Minimalforderung f(x k + s k d k ) < f(x k ) für alle k N erfüllt. Sind die Schrittweiten effizient, dann sind sie auch zulässig. Beweis: Existiert eine konvergente Teilfolge der Iterierten, so folgt aus der Effizient der Schrittweiten und Bemerkung 2.30, θ f(x k) T d k 2 d k 2 f(x k ) f(x k+1 ) 0 und damit f(x k) T d k 2 d k 2 0. 2.3.3 Zulässigkeit der Armijo-Schrittweitenregel Die Armijo-Schrittweitenregel erzeugt nicht immer zulässige Schrittweiten wie das folgende Beispiel zeigt. Beispiel 2.36 Wir betrachten ein Abstiegsverfahren mit Suchrichtungen d k := 2 k f(x k ) 28

2.3. ALLGEMEINE ABSTIEGSVERFAHREN und Armijo-Schrittweiten. Die Suchrichtungen sind offenbar zulässig, da sie die Winkelbedingung erfüllen. Für die lineare Funktion f(x) = x akzeptiert die Armijo-Schrittweitenregel (für jede Wahl der Armijo-Parameter β und γ in Algorithmus 1) immer die Schrittweite 1, da die aus der linearen Vorhersage erwartete Abnahme der Zielfunktion perfekt mit der tatsächlichen Abnahme übereinstimmt. Wir erhalten also die Iterationsvorschrift x k+1 = x k + 2 k und es folgt x k x 0 + 2. Die Armijo-Schrittweiten können daher nicht zulässig sein, da sonst nach Satz 2.29 der Grenzwert der x k ein stationärer Punkt von f sein müsste. Die Armijo-Regel versagt in Beispiel 2.36 weil die Armijo-Schrittweite maximal 1 beträgt und zu kurze Suchrichtungen nicht durch längere Schrittweiten ausgeglichen werden können. Unter recht schwachen Bedingungen an die Länge der Suchrichtungen, kann die Zulässigkeit gezeigt werden. Satz 2.37 Seien (d k ) k N Abstiegsrichtungen. Gilt für jede konvergente Teilfolge (x l ) l L der Iterierten, dass d l 0 = f(x l) T d l d l dann sind die durch die Armijo-Regel erzeugten Schrittweiten zulässig. 0, (2.8) Beweis: In Satz 2.21 haben wir gezeigt, dass die Armijo-Regel zu jeder Abstiegsrichtung d k eine Schrittweite s k liefert mit f(x k + s k d k ) f(x k ) + γs k f(x k ) T d k < f(x k ) liefert. Die erste Bedingung in Definition 2.28 ist also erfüllt. Zum Beweis der zweiten Zulässigkeitsbedingung (2.5) sei (x l ) l L eine konvergente Teilfolge der Iterierten (x k ) k N. Angenommen die zweite Bedingung in Definition 2.28 gilt nicht. Es sei also f(x l ) T d l 0 für L l (2.9) d l und damit nach Voraussetzung auch d l 0 für L l. Dann gibt es eine Teilfolge L L und ein ɛ > 0 mit (beachte f(x l ) T d l < 0) d l ɛ und f(x l) T d l d l ɛ l L. (2.10) 29

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG Aus der Armijo-Bedingung und Bemerkung 2.30 erhalten wir, dass Mit (2.10) folgt 0 f(x k ) f(x k+1 ) γs k f(x k ) T d k = γ f(x k) T d k s k d k. d k lim s L l d l = 0 und lim s l L l = 0. l Wir gehen nun wie am Ende vom Beweis von Satz 2.24 vor. Da (s l ) l L eine Nullfolge ist, muss für alle bis auf endlich viele (o.b.d.a. für alle) l L eine Verkürzung der Schrittweite bei der Armijo-Regel stattgefunden haben, d.h. die Schrittweite s l /β erfüllte die Bedingung noch nicht: ( f x l + s ) l β d l > f(x l ) + γ s l β f(x l) T d l l L. Nach Satz 2.3 existiert für jedes l L ein σ l [0, s l ] mit β f(x l ) + γ s ( l β f(x l) T d l < f x l + s ) l β d l = f(x l ) + s l β f (x l + σ l d l ) T d l. also γ f(x l ) T d l < f (x l + σ l d l ) T d l. und mit γ < 1 und f(x l ) T d l < 0 folgt, dass 0 (1 γ) f(x l) T d l d l < ( f(x l + σ l d l ) f(x l )) T d l d l f(x l + σ l d l ) f(x l ). Aus s l d l 0 folgt σ l d l 0. Da auch die Folge (x l ) l L konvergiert, existiert eine kompakte Menge, die alle x l und x l + σ l d l enthält. Auf dieser kompakten Menge ist f gleichmäßig stetig, und es folgt f(x l + σ l d l ) f(x l ) 0. Insgesamt ist also f(x l ) T d l d l 0 für L l. Dies widerspricht (2.10) und widerlegt damit unsere Annahme, dass die zweite Zulässigkeitsbedingung (2.5) nicht gilt. Bemerkung 2.38 Die Vorausetzung (2.8) in Satz 2.37 ist erfüllt, wenn für jede konvergente Teilfolge (x l ) l L der Iterierten eine streng monoton wachsende Funktion ϕ : [0, ) [0, ) existiert mit ( f(xl ) T ) d l d l ϕ l L, (2.11) d l denn im Falle f(x l) T d l d l gilt. 0 existiert eine Teilfolge, für die f(x l) T d l d l ϕ ( f(x l) T d l d l ) d l ϕ(ɛ) > ϕ(0) 0 ɛ und damit 30

2.3. ALLGEMEINE ABSTIEGSVERFAHREN Beispiel 2.39 Für das Gradientenverfahren mit d k = f(x l ) ist (2.8) erfüllt, da d k = f(x k ) = f(x k) T d k d k. Für das Gradientenverfahren liefert die Armijo-Regel also zulässige Schrittweiten. Da die Suchrichtungen d k ebenfalls zulässig sind folgt aus unserem allgemeinen Präkonvergenzsatz 2.29 also noch einmal die schon in Satz 2.24 gezeigte Präkonvergenz des Gradientenverfahrens. 2.3.4 Die Powell-Wolfe-Schrittweitenregel Das Beispiel 2.36 zeigt, dass die Armijo Schrittweiten zu kurz sein können. Ein wesentlicher Teil der Beweise der Sätze 2.24 und 2.37 bestand darin zu zeigen, dass eine Verkürzung der Schrittweite bei der Armijo-Regel stattgefunden hat, die verwendete Schrittweite also in einem gewissen Sinne die längst mögliche, noch die Armijo-Bedingung erfülltende war. In den Beweisen der Sätze 2.24 und 2.37 verwendeten wir dies, um ein Zwischenresultat der Form mit einer Zwischenstelle σ l zu zeigen. γ f(x l ) T d l < f (x l + σ l d l ) T d l (2.12) Dies motiviert die Armijo-Regel so abzuändern, dass zusätzlich zur Armijo-Bedingung (2.2) auch eine Bedingung der Form (2.12) gefordert wird und die Schrittweite nötigenfalls über 1 hinaus verlängert wird. Konkret suchen wir zu Parametern 0 < γ < 1 und γ < η < 1 und der aktuellen Iterierten x und Suchrichtung d eine Schrittweite s, die die folgenden beiden Powell-Wolfe-Bedingungen erfüllt: f(x + sd) f(x) γs f(x) T d, (2.13) f(x + sd) T d η f(x) T d. (2.14) Die erste Bedingung ist die schon bekannte Armijo-Bedingung, die den tatsächlich erreichten Abstieg mit dem durch die lineare Näherung vorhergesagten vergleicht. Sie sorgt dafür, dass der Schritt klein genug gewählt wird, so dass die lineare Approximation noch eine gute Näherung an die wahre Funktion darstellt. Die zweite Bedingung sorgt dafür, dass der Schritt groß genug gewählt wird, so dass die Steigung im neuen Punkt in diese Richtung hinreichend weit abgenommen hat, vgl. die in der Vorlesung gemalten Skizzen. Zur konstruktiven Bestimmung einer Schrittweite, die die Powell-Wolfe-Bedingungen erfüllt, bemerken wir zunächst, dass solange die Funktion in der Suchrichtung hinreichend rasch abfällt, die Armijo-Bedingung auch erfüllt sein wird. Die Armijo-Bedingung kann nicht für beliebig große Schrittweiten erfüllt sein (zumindest nicht, wenn die Funktion in Richtung der Suchrichtung nicht nach unten unbeschränkt ist). Deshalb muss die 31

KAPITEL 2. UNRESTRINGIERTE NICHTLINEARE OPTIMIERUNG Algorithmus 4 Powell-Wolfe Schrittweitenregel Gegeben: Parameter 0 < γ < 1 und γ < η < 1 (z.b. γ = 10 2 und η = 0.9) Gegeben: aktuelle Iterierte x, Richtung d R n s := 2 repeat s := s /2 until s erfüllt Armijo-Bedingung (2.13) s + := s repeat s + := 2s + until s + verletzt Armijo-Bedingung (2.13) while s verletzt zweite Powell-Wolfe Bedingung (2.14) do s (0) := s+ +s 2 if s (0) erfüllt Armijo-Bedingung (2.13) then s := s (0) else s + := s (0) end if end while return s := s Funktion in Richtung der Suchrichtung irgendwann abflachen und die zweite Powell- Wolfe-Bedingung erfüllt sein. Wir bestimmen deshalb zuerst eine Schrittweite s, an der die Armijo-Bedingung erfüllt ist und dann eine Schrittweite s +, an der die Armijo-Bedingung nicht mehr erfüllt ist. Durch Intervallhalbierung bestimmen wir dann eine Schrittweite, an der die Armijo- Bedingung noch gilt, aber die groß genug ist, so dass auch die zweite Powell-Wolfe- Bedingung erfüllt ist, siehe Algorithmus 4. Satz 2.40 Seien 0 < γ < 1 und γ < η < 1. Sei d eine Abstiegsrichtung für f im Punkt x. f sei in Richtung d nach unten beschränkt, d.h. inf f(x + td) >. t 0 Dann terminiert Algorithmus 4 nach endlich vielen Schritten und liefert eine Schrittweite s die (2.13) und (2.14) erfüllt. Beweis: Aus Satz 2.21 folgt, dass die Repeat-Schleife in Algorithmus 4 nach endlich vielen Schritten mit einem die Armijo-Bedingung (2.13) erfüllenden s terminiert. 32

2.3. ALLGEMEINE ABSTIEGSVERFAHREN Da f(x) + γs f(x) T d für s, können wegen der Beschränktheit von f in die Suchrichtung nicht beliebig große s + existieren, mit f(x + s d) f(x) + γs f(x) T d. Die zweite Repeat-Schleife in Algorithmus 4 muss also nach endlich vielen Schritten mit einem die Armijo-Bedingung (2.13) verletzenden s + terminieren. Die abschließende While-Schleife des Algorithmus implementiert ein Intervallhalbierungsverfahren für die stetige Funktion g(s) := f(x + sd) f(x) γs f(x) T d. Die While-Schleife erzeugt also insbesondere eine Folge von s mit g(s ) 0 die monoton steigend gegen eine Nullstelle s von g konvergieren und eine Folge von s + mit g(s + ) > 0 die monoton fallend gegen die Nullstelle s von g konvergieren. An der Nullstelle muss daher gelten 0 g (s ) = f(x + s d) T d γ f(x) T d. Zu jedem ɛ > 0 liegt für hinreichend viele Schleifendurchgänge s so nah an der Nullstelle s, dass g (s ) > ɛ Mit ɛ := (γ η) f(x) T d folgt, dass nach endlichen vielen While-Schleifendurchgängen f(x + s d) T d > η f(x) T d gilt, also s die zweite Powell-Wolfe Bedingung (2.14) erfüllt und damit die While- Schleife terminiert. Satz 2.41 Sei f nach unten beschränkt. (d k ) k N seien Abstiegsrichtungen. Dann sind die durch die Powell-Wolfe-Regel erzeugten Schrittweiten zulässig. Beweis: Da f nach unten beschränkt ist, erzeugt Algorithmus 4 nach Satz 2.40 für jedes k N eine Schrittweite s k > 0, die die beiden Powell-Wolfe Bedingungen (2.13) und (2.14) erfüllt. Insbesondere erfüllen die Schrittweiten die Armijo-Bedingung (2.13), f(x k + s k d k ) f(x k ) + γs k f(x k ) T d k < f(x k ). Die erste Zulässigkeitsbedingung in Definition 2.28(a) ist also erfüllt. Um die zweite Zulässigkeitsbedingung (2.5) in Definition 2.28(a) zu zeigen, sei (x l ) l L sei eine konvergente Teilfolge der Iterierten (x k ) k N. Nach Bemerkung 2.30 gilt lim (f(x k) f(x k+1 )) = 0. k 33