Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

Größe: px
Ab Seite anzeigen:

Download "Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details."

Transkript

1 Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details. 5.1 Projektionsverfahren Projektionsverfahren sind recht einfache Verfahren, die das Konzept von Abstiegsverfahren zur Minimierung von Funktionen ohne Nebenbedingungen auf Minimierungsprobleme mit konvexen Nebenbedingungen übertragen. Bei einem Abstiegsverfahren wird, ausgehend von einer Iterierten x k), die nächste Iterierte x k+1) so gewählt, dass sich der Wert der zu minimierenden Funktion verkleinert. Hat man ein Problem mit Nebenbedingungen, so muss man natürlich zusätzlich darauf achten, dass x k+1) zum zulässigen Bereich gehört. Anderenfalls kann es zum Beispiel vorkommen, dass die Zielfunktion gar nicht definiert ist. Projektionsverfahren projizieren die Abstiegsrichtung für die Zielfunktion in geeigneter Weise in die zulässige Menge. Wir betrachten das Optimierungsproblem z = min{fx) : x Ω} 5.1) mit f C 1 R n ) und die zulässige Menge Ω sei nichtleer, konvex und abgeschlossen. Von besonderer Bedeutung sind die Probleme, bei denen fx) quadratisch und Ω = {x R n : Ax b} 5.2) ein Polyeder ist, A R m n, b R m. Solche Probleme treten als Teilprobleme bei den sogenannten SQP Verfahren sequential quadratic programming) auf, wo sie wiederholt mit unterschiedlichen Daten A, b, f gelöst werden müssen, siehe Abschnitt 5.4. In anderen Anwendungen ist der zulässige Bereich sogar nur ein n dimensionaler Quader,,box constraints ): Ω = n i=1 [l i, u i ]. 5.3) Für x R n sei P Ω x) die Lösung von inf y x y Ω 2, die Projektion von x auf Ω bezüglich der Euklidischen Norm. Da die Menge Ω nach Voraussetzung abgeschlossen ist, kann man das Infimum durch das Minimum ersetzen, also P Ω x) = arg min y Ω y x 2. 99

2 Beispiel 5.1 Falls Ω durch 5.2) gegeben ist, muss man zur Berechnung der Projektion y = P Ω x) das konvexe quadratische Programm y = arg min y Ω { y x 2 2 : Ay b} = arg min y Ω {yt y 2y T x : Ay b} lösen. Die Menge Ω ist ein konvexes Polyeder. Die Zielfunktion y x 2 2 ist eine konvexe Funktion. Ist der zulässige Bereich ein n dimensionaler Quader 5.3), kann man die Projektion komponentenweise berechnen: x i falls x i [l i, u i ], y) i = u i falls x i > u i, l i falls x i < l i. Definition 5.2 Stationärer Punkt. Der Punkt x 0 wird stationärer Punkt des Problems 5.1) genannt, falls für alle Punkte des Tangentenkegels y T x 0 ) die Ungleichung y T fx 0 ) 0 gilt. Ein stationärer Punkt erfüllt also die im Satz 4.8 bewiesene notwendige Bedingung für ein lokales Minimum bezüglich Ω. Algorithmus 5.3 Projektionsverfahren. 1. Initialisierung. Bestimme x 0) Ω und wähle drei reelle Parameter 0 < β, µ < 1 und γ > Iteration. k = 0, 1, 2,... Falls x k) ein stationärer Punkt ist, dann Stopp sonst Betrachte für α > 0 den Pfad x k) α) := P Ω x k) + α f x k))) Setze x k+1) α) := x k) α k)), wobei α k) = γβ mk) und m k) die kleinste natürliche Zahl größer oder gleich Null ist mit f x k+1)) f x k)) + µ f x k)) T x k+1) x k)) Armijo Liniensuche) Bemerkung 5.4 Armijo Liniensuche. Seien fx) eine zu minimierende Funktion, x k) die gegenwärtige Iterierte, s k) eine irgendwie berechnete Abstiegsrichtung, µ 0, 1) und γ > 0 eine Konstante. Im Falle, dass man keine Nebenbedingungen hat, wählt man λ 0) γ fx k) ) 2 und bestimme unter den Zahlen λ j) = 2 j λ 0), β = 1/2, die erste, für die f x k) + λ j) s k)) f x k)) + µλ j) f x k)) T s k) 100

3 gilt. Die Motivation für diese Herangehensweise kommt von der nach dem linearen Glied abgebrochenen Taylor Entwicklung f x k) + λ j) s k)) f x k)) + λ j) f x k)) T s k). Ist s k) eine Abstiegsrichtung, dann findet man in dieser Richtung einen Funktionswert von fx), der kleiner als der Funktionswert f x k)) ist, falls λ j) nur hinreichend klein ist. Man fängt mit irgendeinem hinreichend großen λ 0) an. Dieses hängt von f x k)) 2 ab. Ist f x k)) 2 klein, kann man vermuten in der Nähe eines Minimums zu sein besitzt fx) in x k) ein Minimum, so ist f x k)) = 0) und man braucht vielleicht nur einen kleinen Schritt. Man testet ob der Funktionswert sich verkleinert. Ist das nicht der Fall, wird der Parameter λ j) sukzessive halbiert, bis er klein genug ist. Im Algorithmus 5.3 hat man einen gekrümmten Pfad x k) α). Für jedes α hat man im allgemeinen ein konvexes, quadratisches Minimierungsproblem über Ω zu lösen. Das ist recht teuer. Falls Ω ein Polyeder ist, kann man eine Startiterierte x 0) mittels eines linearen Programms bestimmen. Da der Algorithmus 5.3 im wesentlichen ein Gradientenverfahren ist, kann man im allgemeinen nur langsame Konvergenz erwarten. Außerdem ist die Berechnung von P Ω x k) + α f x k))) für allgemeine Polyeder aufwendig. Wir betrachten jetzt noch eine Variante von Algorithmus 5.3, die zusätzlich leichter berechenbare Zwischenwerte x k) Ω berechnet, bei denen der Funktionswert zumindest nicht ansteigt. Algorithmus 5.5 Modifiziertes Projektionsverfahren. 1. Initialisierung. Bestimme x 0) Ω und wähle Parameter falls nötig. 2. Iteration. k = 0, 1, 2,... Bestimme x k+1) = P Ω x k) + α fx k) ) ) entweder wie im Algorithmus 5.3 oder bestimme x k+1) Ω, so dass f x k+1)) f x k)). Die Umsetzung der zweiten Strategie hängt von der Art der Nebenbedingungen ab. Wir betrachten affine Nebenbedingungen 5.2). Bezeichne â i die Zeilen von A. Für x Ω sei die Menge der aktiven Nebenbedingungen Ix) = { i {1,..., m} : â T i x = b i }. Dann wird die zweite Strategie häufig so realisiert, dass Ix k) ) Ix k+1) ) gilt. Man wählt dazu in x k) eine Abstiegsrichtung v k) L x k)) := {v : A Ix )v = 0}, k) wobei A Ix k) ) die Teilmatrix von A mit den Zeilen ist, deren Indizes in Ix k) ) enthalten sind. Die Abstiegseigenschaft wird dann nur in schwacher Form f x k)) T v k) 0 verlangt. Die neue Iterierte besitzt die Gestalt x k+1) = x k) + αv k) für ein geeignetes α. Aus der Wahl von v k) folgt A x k+1)) = A x k) + αv k)) = Ax k) + αav k). 101

4 Für die aktiven Nebenbedingungen verschwindet der zweite Summand. Für die anderen Nebenbedingungen, i Ix k) ), ist der erste Summand kleiner als b i und man findet ein hinreichend kleines α > 0, so dass die Summe der beiden Summanden kleiner oder gleich b i bleibt. Mit α k) := sup{α : x k) + αv k) Ω} wird nun eine Liniensuche gestartet um einen Faktor α k) und damit ein Argument x k+1) zu finden, so dass f x k+1)) f x k)) gilt. Ist α k) < α k), dann ist Ix k) ) = Ix k+1) ), sonst Ix k) ) Ix k+1) ). 5.2 Penalty Verfahren Strafverfahren) Wir betrachten wieder das Optimierungsproblem z = min{fx) : x Ω}, 5.4) diesmal aber zunächst mit f C 0 R n ) und die Menge Ω R n sei abgeschlossen. Um die Lösung von 5.4) mit einer Folge einfacherer Optimierungsprobleme ohne Nebenbedingungen zu approximieren, wird die Straffunktion l : R n R +, lx) { > 0 für x Ω, = 0 für x Ω eingeführt. Diese Funktion bestraft Punkte, die nicht zum zulässigen Bereich gehören, mit positiven Funktionswerten. Beispiel 5.6 Für Ω = {x R n : g i x) 0, i = 1,..., p; g i x) = 0, i = p + 1,..., m} ist eine mögliche Straffunktion lx) = p i=1 g + i x)) α + m i=p+1 g i x) α mit α > 0, g + i x) = max{0, g ix)}. Definition 5.7 Penalty Funktion Die gewichtete Summe aus Zielfunktion und Straffunktion px, r) := fx) + rlx), r R +, r > 0, wird Penalty Funktion genannt. Der Parameter r heißt Strafparameter. Für fest gewählte Parameter r werden jetzt die Minimierungsprobleme ohne Nebenbedingungen min px, r) 5.5) x Rn betrachtet. Der Strafterm belegt die Punkte, die nicht zum zulässigen Bereich gehören, mit positiven Werten, die für große Strafparameter r groß sind. Deswegen hofft man, dass die Minima von 5.5) für große Strafparameter im zulässigen Bereich liegen. Algorithmus 5.8 Allgemeines Penalty Verfahren. 1. Initialisierung. Wähle r 1) >

5 2. Iteration. k = 0, 1, 2,... Bestimme ein lokales Minimum x k) für px, r k) ) Falls x k) Ω, dann Stopp sonst wähle r k+1) 2r k) Man kann zeigen, dass die x k) unter gewissen Voraussetzungen tatsächlich Näherungen eines lokalen Minimums von 5.4) sind. Satz 5.9 Seien f : R n R eine stetige Funktion, x 0 ein striktes lokales Minimum und l : R n R + eine stetige Straffunktion. Dann gibt es ein r 0 > 0 so, dass für alle r > r 0 die Penalty Funktion px, r) ein lokales Minimum xr) besitzt, dass für r gegen x 0 konvergiert. Beweis: Literatur, [JS04, S. 294]. Bemerkung 5.10 Zwei Eigenschaften sind für Penalty Verfahren von Bedeutung: 1. In vielen Fällen ist die Zielfunktion fx) differenzierbar. Damit die Anwendung eines Verfahrens vom Newton Typ zur Bestimmung des Minimums von 5.5) möglich ist, muss die Straffunktion lx) auch differenzierbar sein. 2. Damit das Verfahren nach endlich vielen Schritten abbricht, ist es wünschenswert, wenn es bereits einen endlichen Wert r > 0 gibt, so dass ein lokales Minimum x 0 von 5.4) auch lokales Minimum für jedes Problem ohne Nebenbedingungen 5.5) mit r r ist. In diesem Fall nennt man die Penalty Funktion exakt in x 0. Es stellt sich leider heraus, dass diese beiden wünschenswerten Eigenschaften in der Regel unvereinbar sind. Aus diesem Grunde werden Penalty Verfahren in der Form von Algorithmus 5.8 praktisch nicht genutzt. Stattdessen betrachtet man modifizierte Penalty Funktionen, die auf dem Konzept einer erweiterten Lagrange Funktion augmented Lagrange Funktion) beruhen, siehe Literatur. 5.3 Barrieremethoden Wir betrachten das Problem mit den Nebenbedingungen z = min fx) 5.6) x Ω g i x) 0 für 1 i p, g i x) = 0 für p + 1 i m. 5.7) Dabei seien f, g i C 2 R n ), i = 1,..., m, und wir nehmen an, dass 5.6) eine Optimallösung besitzt, die mit x 0 bezeichnet wird. Barrieremethoden sind eng verwandt mit den Penalty Verfahren. Auch bei diesen Methoden betrachtet man eine Folge von Hilfsproblemen, bei denen die Zielfunktion fx) durch gewichtete Strafterme erweitert wird. Die Barriereverfahren erzeugen eine Folge von inneren Punkten, das heißt von Punkten welche die Ungleichungsrestriktionen sogar strikt erfüllen, g i x) < 0, i = 1,..., p, während die Gleichungsrestriktionen verletzt sein können. Bezeichne ˆΩ := {x R n : g i x) 0, i = 1,... p}, ˆΩ 0 := {x R n : g i x) < 0, i = 1,... p}. Man beachte, die Menge ˆΩ 0 muss nicht notwendig die topologischen inneren Punkte von ˆΩ enthalten, wähle zum Beispiel n = p = 1, g 1 x) = 0. Dann sind ˆΩ = R und ˆΩ 0 =. 103

6 Barriereverfahren bestrafen solche Punkte aus ˆΩ 0, die sich dem Rand von ˆΩ 0 nähern. Die Gleichheitsnebenbedingungen werden direkt mit Hilfe von Linearisierungen behandelt. Diese Gleichheitsnebenbedingungen sind grundsätzlich einfacher zu behandeln als Ungleichungsnebenbedingungen. Die Strafterme in den Barriereverfahren, die sogenannten Barriereterme, sind in ˆΩ 0 endlich und wachsen zum Rand dieser Menge nach unendlich an. Außerhalb von ˆΩ besitzen sie den Wert. Im Gegensatz zu den Penalty Verfahren, bei denen die Strafterme sukzessive immer stärker gewichtet werden, siehe Algorithmus 5.8, muss bei den Barriere Verfahren der Einfluss der Strafterme immer weiter abgeschwächt werden. Damit wird das Gewicht der Zielfunktion im Barriereproblem erhöht und man kann hoffen, dass die Minima der Barriereprobleme unter geeigneten Voraussetzungen gegen ein Minimum von fx) konvergieren. An der Eigenschaft, dass die Barriereterme außerhalb von ˆΩ unendlich sind, ändert man nichts. Somit ist garantiert, dass die Minima der Barriereprobleme immer in ˆΩ 0 liegen. Definition 5.11 Skalare Barrierefunktion. Eine skalare Barrierefunktion ist eine streng monoton fallende, glatte, konvexe Funktion b : 0, ) R mit lim bt) = und lim t 0+0 t 0+0 b t) =. Außerdem wird stets bt) = für t 0 gesetzt, so dass bt) formal eine auf R definierte konvexe Funktion ist, b : R R { }. Beispiel 5.12 Beispiele für Barrierefunktionen sind bt) = log t, bt) = 1 t α, α > 0. Die logarithmische Barrierefunktion ist in gewisser Hinsicht optimal. Zur Konstruktion von Barriereverfahren zur Lösung von Problem 5.6) mit den Nebenbedingungen 5.7) werden nun Hilfsprobleme der Form { } p fx) + µ b d i g i x)) : g i x) = 0, i = p + 1,..., m 5.8) inf x R n i=1 betrachtet. In 5.8) ist µ > 0 ein Gewicht für die Barriereterme und die Zahlen d i 0, i = 1,..., p, sind Verschiebungen der Ungleichungsnebenbedingungen in 5.7), das heisst anstatt g i x) 0 ist nun g i x) d i erlaubt. Diese Verschiebungen gestatten es, dass man das Verfahren auch dann anwenden kann, wenn kein innerer Punkt für 5.6), 5.7) bekannt ist. Die Zielfunktion von 5.8) wird abkürzend mit Φx; µ, d) = fx) + µ p b d i g i x)) bezeichnet. Wir nehmen an, dass 5.8) ein endliches lokales Minimum besitzt. Die gewichtete Summe der Barriereterme in der Zielfunktion garantiert, dass jedes x mit Φx; µ, d) R die abgeschwächten Nebenbedingungen g i x) < d i, i = 1,..., p, erfüllt. Lemma 5.13 Falls fx) und g i x), i = 1,..., p konvex sind, so ist auch Φx; µ, d) konvex. i=1 104

7 Beweis: Es ist bekannt, dass die Linearkombination konvexer Funktionen mit nichtnegativen Koeffizienten in der Linearkombination eine konvexe Funktion ist. Damit bleibt zu zeigen, dass die Funktionen b d i g i x)), i = 1,..., p, konvex sind. Da die Funktionen, g i x) konvex sind, gilt für λ [0, 1] d i g i λx λ)x 2 ) d i λg i x 1 ) + 1 λ)g i x 2 )) = λ d i g i x 1 )) + 1 λ) d i g i x 2 )). Mit dieser Aussage, mit der Monotonie von bt) und der Konvexität von bt) folgt b d i g i λx λ)x 2 )) b λ d i g i x 1 )) + 1 λ) d i g i x 2 ))) λb d i g i x 1 )) + 1 λ)b d i g i x 2 )). Weiterhin gilt folgende stärkere Aussage. Satz 5.14 Gelten die Voraussetzungen von Lemma 5.13 sowie lim t b t) = 0. Die Gleichheitsnebenbedingungen g i x), i = p + 1,..., m seien affin und die Menge der Optimallösungen von 5.6) sei nicht leer und beschränkt. Dann besitzt das Hilfsproblem 5.8) für jedes µ > 0 eine Optimallösung und die Minima der Barriereprobleme nähern sich der Optimalmenge von 5.6). Beweis: Siehe Literatur. Für Probleme 5.6), die die Bedingungen dieses Satzes erfüllen, kann man nun das folgende Verfahren konstruieren. Algorithmus 5.15 Barrieremethode für konvexe Probleme. 1. Initialisierung. Bestimme x 0) R n mit g i x 0) ) = 0 für i = p + 1,..., m. Wähle µ 0) > 0 und d 0) 0 so dass d 0) i > g i x 0) ) für i = 1,..., p. 2. Iteration. k = 1, 2,... Wähle λ k) 0, 1) so, dass mit µ k), d k)) := λ k) µ k 1), d k 1)) gilt g i x k 1)) < d k) i, für i = 1,..., p. Ausgehend von x k 1) führt man nun einige Schritte des Newton-Verfahrens mit Liniensuche) zum lösen des Barriere-problems aus. Das Ergebnis ist x k). Im ersten Schritt der Iteration werden sowohl das Gewicht als auch der Verschiebevektor verkleinert. Der Verkleinerungsfaktor wird so gewählt, dass mit dem neuen Verschiebevektor noch alle Ungleichungsnebenbedingungen erfüllt sind. Das Minimum x 0 µ k), d k)) des Barriereproblems 5.8) zu den Parametern µ k), d k)) wird im zweiten Schritt approximiert. Da die Barriereterme das Minimum vom Rand der Menge {x : g i x) d k) i } abstoßen, kann man nach der Berechnung der Näherung x k) von x 0 µ k), d k)) die Verschiebeparameter d k) i in der folgenden Iteration wieder etwas verkleinern. Die Schwierigkeiten von Algorithmus 5.15 bestehen darin, dass das Newton Verfahren für µ k) 0 oft schlecht konvergiert. Deshalb wird diese Basisherangehensweise nicht genutzt. Man kann diese Herangehensweise durch Verfeinerung der Barrieremethode verbessern. 105

8 5.4 SQP Verfahren In diesem Abschnitt wird ein Zugang vorgestellt, der Punkte berechnet, die die notwendige Optimalitätsbedingung, die im Satz 4.21 Kuhn/Tucker) formuliert ist, erfüllen, die sogenannten SQP Verfahren sequential quadratic programming). Es wird also eine Iteration durchgeführt, bei welcher in jedem Schritt ein quadratisches Optimierungsproblem gelöst wird. Wir betrachten wieder das Optimierungsproblem 5.6) mit den Nebenbedingungen 5.7) und den gleichen Regularitätsvoraussetzungen wie im Abschnitt 5.3. Seien x 0 ein lokales Minimum von 5.6), 5.7) und z 0 der zugehörige Lagrange Multiplikator zum Lagrange Problem 4.10). Insgesamt erfüllen x 0, z 0 ) das Problem, siehe 4.10), Φx 0, z 0 ) = x Lx 0, z 0 ) z T 0 gx 0) ) = fx0 ) + gx 0 )) T z 0 z T 0 gx 0) ) = 0 5.9) mit z 0 0. Da die Gleichheitsbedingungen ohnehin verschwinden, kann man 5.9) sogar wie folgt schreiben fx 0 ) + gx 0 )) T z 0 z 0,1 g 1 x 0 ). Φx 0, z 0 ) = z 0,p g p x 0 ) = ) g p+1 x 0 ). g m x 0 ) SQP Verfahren wollen das nichlineare Problem 5.10) mit einem Verfahren vom Newton Typ lösen. Dazu benötigt man die Jacobi Matrix von Φx, z), die durch Ψ x, z, H L,x x, z)) H L,x x, z) g 1 x) g p x) g p+1 x) g m x) z 1 g 1 x)) T g 1 x) = z p g p x)) T g p x) g p+1 x)) T. 0 0 g m x)) T R n+m) n+m) gegeben ist. Ein wesentliches Merkmal eines SQP Verfahrens besteht darin, dass die teure Hesse Matrix H L,x x, z) in der Regel durch eine einfacher zu berechnende Matrix ersetzt wird. Unter geeigneten Voraussetzungen kann man zeigen, dass die Jacobi Matrix Ψ x 0, z 0, H L,x x 0, z 0 )) nichtsingulär ist und dass das Newton Verfahren zur Nullstellenbestimmung von Φx, z) quadratisch konvergiert. Sei eine aktuelle Iterierte x k), z k) ) T gegeben. Die Newton Korrektur x k), z k) ) T berechnet sich als Lösung des Gleichungssystems ) Ψ x k), z k), H L,x x k), z k) ) x k), z k)) T = Φx k), z k) ). Beim Newton Verfahren kann man im allgemeinen jedoch nur lokale Konvergenz erwarten, dass heisst, der Startwert muss nahe genug an der unbekannten) Lösung 106

9 sein. Speziell für die Funktion Φx, z) kann man auch nicht garantieren, dass alle Iterierten die Ungleichungen g i x k) ) 0 und die Nichtnegativitätsbedingung z k) i 0 erfüllen. Damit ist es möglich, dass das Newton Verfahren gegen eine nicht zulässige Lösung von Φx, z) = 0 konvergiert, bei der Nebenbedingungen nicht erfüllt sind oder die Lagrange Multiplikatoren negativ sind. Die Konvergenz gegen eine solche Lösung muss verhindert werden. Dazu wird anstelle des Newton Verfahrens das System Ψ x k), z k+1), B k)) x k), z k)) T = Φx k), z k) ) 5.11) betrachtet, wobei x k), z k) und z k+1) = z k) + z k) die zusätzlichen Forderungen z k+1) i 0 für i = 1,..., p, 5.12) g i x k)) + g i x k))) T x k) 0 für i = 1,..., p 5.13) erfüllen. Im Vergleich zum Newton Verfahren ersetzt man H L,x x k), z k) ) durch eien Matrix B k), die in der Regel durch gewisse Quasi Newton Korrekturen sogenannte Broyden Verfahren) erzeugt wird. Des weiteren wird der Vektor z k) auf der linken Seite durch z k+1) ersetzt. Man erhält ein implizites Gleichungssystem, welches nicht mehr linear bezüglich der Lagrange Multiplikatoren ist. Außerdem werden noch die linearen Ungleichungsbedingungen 5.12), 5.13) an x k) und z k) gestellt. Ausgeschrieben besagt 5.11) 5.13) f x k)) + B k) x k) + z k+1) i g i x k)) + m i=1 z k+1) i g i x k)) = 0, g i x k))) T x k) ) g i x k)) + g i x k))) T x k) Wir betrachten das folgende quadratische Programm unter den Nebenbedingungen = 0, i = 1,..., p, 5.14) = 0, i = p + 1,..., m. z = min f x k))) T 1 s + s R n 2 st B k) s 5.15) g i x k)) + g i x k))) T s 0, i = 1,..., p, 5.16) g i x k)) + g i x k))) T s = 0, i = p + 1,..., m. 5.17) Erfülle dieses Problem die Voraussetzungen des Satzes 4.21 Kuhn/Tucker). Dann sind die notwendigen Bedingungen für ein Minimum gerade die Gleichungen 5.14). Übungsaufgabe Damit ergibt sich folgendes Verfahren: Algorithmus 5.16 SQP Algorithmus Grundform). 1. Initialisierung. Wähle x 0) R n, B 0) = B 0)) T HL,x x 0), z 0))) für ein z 0) R m mit z 0) i > 0, i = 1,..., p 2. Iteration. k = 0, 1, 2,

10 Bestimme die Lösung s von 5.15) ) und einen zugehörigen Lagrange-Multiplikator z. Setze x k+1) = x k) + s, z k+1) = z. Bestimme eine symmetrische Matrix B k+1) H L,x x k+1), z k+1)). Falls B k) positiv semidefinit ist, dann ist 5.15) 5.17) ein konvexes quadratisches Programm. In diesem Fall sind die Bedingungen des Satzes 4.21 notwendig und hinreichend für ein globales Minimum, siehe auch Satz Zur Lösung kann man beispielsweise ein Projektionsverfahren nehmen, siehe Abschnitt

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Innere Punkt Verfahren

Innere Punkt Verfahren Kapitel 1 Innere Punkt Verfahren Innere Punkt Verfahren verfolgen die Idee, bei der Lösung von linearen Programmen durch das Innere des konvexen Polyeders zum Optimum zu gelangen. Damit unterscheiden sie

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine

Mehr

VIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung:

VIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung: Inhaltsverzeichnis 1 Einleitung... 1 1.1 Modellbildung,mathematische Formulierung............... 1 1.2 Nichtlineare Programme................................. 2 1.3 Einteilung von nichtlinearen Programmen...

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Das Subgradientenverfahren

Das Subgradientenverfahren Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten

Mehr

Globale Newton Verfahren

Globale Newton Verfahren Betrachten: System von n nichtlinearen Gleichungen: F : D R n, F C 1 D Gesucht: x D, sodass F x =0. Vorher: Bedingungen für Startwert wie z.b. x x 0 2 / garantieren die Konvergenz des lokalen Newton-Verfahrens

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren Kapitel 2 Newtonverfahren Ziel: Bestimmung von Nullstellen von f (=stationärer Punkt). Dies geschieht mit dem Newtonverfahren. x k+1 = x k ( 2 f (x k )) 1 f (x k ) (2.1) Bemerkung 2.1: Das Newtonverahren

Mehr

Teil II. Nichtlineare Optimierung mit Nebenbedingungen

Teil II. Nichtlineare Optimierung mit Nebenbedingungen Teil II Nichtlineare Optimierung mit Nebenbedingungen 60 Kapitel 8 Theoretische Grundlagen Wir betrachten unser allgemeines Problem (P f(x = min!, x Ω, wobei der Zulässigkeitsbereich Ω R n nun auf die

Mehr

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) = 2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Nichtlineare Ausgleichsrechnung

Nichtlineare Ausgleichsrechnung 10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer

Mehr

Konvexe Optimierung I Sommersemester Kapitel 0

Konvexe Optimierung I Sommersemester Kapitel 0 Sommersemester 2013 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 15. April 2013 Konvexe Optimierung Was ist das? Was bedeutet Optimierung? Was bedeutet

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II für zur Lösung der Monge-Ampère-Gleichung, Teil II Andreas Platen Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zur Approximationstheorie im Wintersemester 2009/2010 1 / 27 Gliederung

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Inhaltsverzeichnis. Teil I Lineare Programmierung

Inhaltsverzeichnis. Teil I Lineare Programmierung Inhaltsverzeichnis 1 Einleitung................................................ 1 1.1 Modellbildung, mathematische Formulierung............... 1 1.2 Nichtlineare Programme.................................

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

7 Anwendungen der Linearen Algebra

7 Anwendungen der Linearen Algebra 7 Anwenungen er Linearen Algebra 7.1 Extremwertaufgaben mit Nebenbeingungen Bemerkung 7.1. Wir behaneln as Problem: Gegeben ist eine zweimal stetig ifferenzierbare Funktion f : R n R un ein stetig ifferenzierbares

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 67 Kapitel 1 Einleitung Bemerkung 1.1 Problemklasse. In diesem Abschnitt wird die Optimierung von Funktionen min x Ω {f(x)} betrachtet, wobei Ω R n eine abgeschlossene

Mehr

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete 42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

2.4 Verallgemeinerte Ungleichungen

2.4 Verallgemeinerte Ungleichungen 2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. 7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare

Mehr

II. Nichtlineare Optimierung

II. Nichtlineare Optimierung II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,

Mehr

A = A A

A = A A Musterlösung - Aufgabenblatt 8 Aufgabe 1 Gegeben ist das Polytop P = conv {±e i ± e j : 1 i, j 3, i j} = conv {e 1 + e 2, e 1 e 2, e 1 + e 2, e 1 e 2, e 1 + e 3, e 1 e 3, e 1 + e 3, e 1 e 3, e 2 + e 3,

Mehr

MATTHIAS GERDTS. Optimierung. Universität der Bundeswehr München Wintertrimester 2014

MATTHIAS GERDTS. Optimierung. Universität der Bundeswehr München Wintertrimester 2014 MATTHIAS GERDTS Optimierung Universität der Bundeswehr München Wintertrimester 2014 Addresse des Autors: Matthias Gerdts Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München

Mehr

Seminarvortrag: Trust-Region-Verfahren

Seminarvortrag: Trust-Region-Verfahren Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Extremalprobleme mit Nebenbedingungen

Extremalprobleme mit Nebenbedingungen Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des

Mehr

Aufgabensammlung zum UK Mathematische Optimierung

Aufgabensammlung zum UK Mathematische Optimierung Aufgabensammlung zum UK Mathematische Optimierung Mehrdimensionale Analysis Stetigkeit. Man bestimme den natürlichen Definitionsbereich D f der folgenden Funktionen f: a) f(x, y) = ln(x y ) b) f(x, y)

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) = Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt

Mehr