II. Nichtlineare Optimierung
|
|
|
- Ralf Baumgartner
- vor 9 Jahren
- Abrufe
Transkript
1 II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06, Teil 5, Seite 1
2 1. Problemstellungen Ein einführendes Beispiel aus der Schulmathematik: Es soll eine Dose mit einem Liter Fassungsvermögen hergestellt werden. H. Weber, FHW, OR SS06, Teil 5, Seite 2
3 Dabei werden Grund- und Deckkreis aus dem umschriebenen Quadrat ausgeschnitten. Wie groß sind die Ausmaße zu wählen, wenn dabei möglichst wenig Blech verwendet werden soll und der Abfall beim Ausstanzen der Grund- und Deckfläche zum verbrauchten Material zählt. Da Deckel und Boden aus einem quadratischen Blech gestanzt werden, ist die Fläche des verwendeten Blechs: F = 2(2r) 2 + 2πrh Dabei ist 2(2r) 2 die Fläche für den Deckel und Boden (inklusive Abfall) und 2πrh die Fläche des Mantels. Das Volumen der Dose soll 1 Liter betragen. Ein Liter ist 1 dm 3, darum wählt man als Einheit für alle Längen im Folgenden Dezimeter (dm). Die Formel für das Volumen ist V = 1 = hπr 2 (Nebenbedingung) H. Weber, FHW, OR SS06, Teil 5, Seite 3
4 Daraus folgt durch Umformung: h = 1/(πr 2 ) Man erhält die Funktion der Fläche in Abhängigkeit vom Radius r (durch Ersetzen von h durch r): F(r) = 8r 2 + 2πrh = 8r 2 + 2πr/(πr 2 ) = 8r 2 + 2/r. Diese Zielfunktion F(r) ist zu minimieren: F'(r) = 16r - 2/r 2 = 0 <=> 16r 3-2 = 0 <=> r 3 = 1/8 <=> r = 1/2 Das Ergebnis ist r = 1/2 dm = 5 cm. Man überprüft nun über die zweite Ableitung, ob 1/2 auch wirklich das Minimum ist: F''(r) = 16+4/r 3 Einsetzten von r liefert: F''(1/2) = 48 > 0, es liegt also wirklich ein Minimum vor. H. Weber, FHW, OR SS06, Teil 5, Seite 4
5 Wir beschäftigen uns hier mit nichtlinearen Optimierungsproblemen Sie stellen eine natürliche Verallgemeinerung der linearen Optimierungsprobleme dar. Diese Probleme sind in der Regel von der Theorie (Lösbarkeitsaussagen) her erheblich schwieriger als lineare Aufgaben. Auch in der Praxis sind diese Probleme viel aufwendiger zu behandeln als lineare Aufgaben, wo ein generell akzeptiertes und verwendbares Verfahren, der Simplex-Algorithmus, zur Verfügung steht. Das Attribut aufwendig bezieht sich sowohl auf die Programmierung als auch auf den Rechenaufwand. Sei F: R n R eine hinreichend glatte (genügend oft stetig differenzierbare) Funktion, seien g j : R n R, j=1,...,m, hinreichend glatte Funktionen. H. Weber, FHW, OR SS06, Teil 5, Seite 5
6 Wir gehen aus vom Problem: Maximiere F(x) unter den Nebenbedingungen g i (x) 0, i = 1,,m und Nichtnegativitätsbedingungen x j 0, j = 1,,n Wir benutzen auch gelegentlich die aus der linearen Optimierung bekannte Vektorschreibweise: Maximiere F(x) unter den Nebenbedingungen g(x) 0 und x 0 (komponentenweise geschrieben), wobei x R n und g : R m R n H. Weber, FHW, OR SS06, Teil 5, Seite 6
7 Diese Problemstellung kann noch erweitert werden, in dem man etwa Gleichheitsnebenbedingungen der Form h(x) = 0 hinzunimmt, aber auch vereinfacht werden, in dem man etwa die Nichtnegativitätsbedingungen x 0 wegläßt. Auch Minimalaufgaben können, wie üblich, leicht durch Multiplikation der Zielfunktion mit 1 betrachtet werden. H. Weber, FHW, OR SS06, Teil 5, Seite 7
8 Beispiel: Es stammt aus der Produktionsplanung. Zu maximieren ist die Summe der Deckungsbeiträge zweier Produkte unter Beachtung linearer Kapazitätsrestriktionen. Je nach den Eigenschaften des Marktes kommt man zu verschiedenen Zielfunktionen (linear bzw. nichtlinear). Im Fall eines Angebotsmonopolisten ist der Preis der Produkte eine Funktion seiner Absatzmenge. Wir kommen dann zur Aufgabe: Maximiere F(x 1, x 2 ) = 5x 1 x x 2 x 2 2 unter den Nebenbedingungen x 1 + 2x (g 1 (x):= x 1 + 2x 2 8) 3x 1 + x (g 2 (x):= 3x 1 + x 2 9) und x 1, x 2 0 Wie im Fall der linearen Optimierung können wir im Zweidimensionalen H. Weber, FHW, OR SS06, Teil 5, Seite 8
9 leicht Nebenbedingungen und Zielfunktion grafisch darstellen: Der Punkt (2.5, 2.5) mit F(2.5, 2.5) = 12.5 ist das Maximum des unrestringierten Problems. H. Weber, FHW, OR SS06, Teil 5, Seite 9
10 Beispiel: Geht man von der sog. Gutenberg schen Verbrauchsfunktion aus, so kommt man zu nichtlinearen Nebenbedingungen. Zusammen mit einer linearen Zielfunktion erhält man die Aufgabe Maximiere F(x 1, x 2 ) = 6x 1 + 4x 2 unter den (quadratischen) Nebenbedingungen x x x x und x 1, x 2 0 (g 1 (x) = x x , g 2 (x) = 16 x x ) Die Verhältnisse können ebenfalls leicht grafisch dargestellt werden. H. Weber, FHW, OR SS06, Teil 5, Seite 10
11 Der zulässige Bereich ergibt sich durch Schnitt der beiden Ellipsenabschnitte. Das Maximum der Zielfunktion kann hier grafisch durch Parallelverschiebung der Niveaulinie der ZF bestimmt werden. H. Weber, FHW, OR SS06, Teil 5, Seite 11
12 Ein weiteres Beispiel einer Minimalaufgabe mit nichtlinearer Zielfunktion und einer nichtlinearen Randbedingung soll nur grafisch dargestellt werden: Wo liegt das Minimum? H. Weber, FHW, OR SS06, Teil 5, Seite 12
13 In den Wirtschafts- und Naturwissenschaften gibt es jede Menge von nichtlinearen Optimierungsaufgaben zu lösen! Häufig stellen die linearen Aufgaben nur eine vereinfachte Form der ursprünglich nichtlinearen Probleme dar. Zu den wesentlichen Schwierigkeiten der nichtlinearen Optimierung zählt die Frage, wieviele Extremstellen es gibt (lokale Extrema vs. globale Extrema!). Zur Berechnung der Extremwerte sind i.a. numerische Verfahren notwendig. H. Weber, FHW, OR SS06, Teil 5, Seite 13
14 2. Grundlagen Die Menge der zulässigen Lösungen eines nichtlinearen Optimierungsproblems bezeichnen wir mit X. Die Menge der optimalen Lösungen bezeichnen wir mit X*. Ist X = R n, so nennen wir das Problem unrestringiert. Bei linearen Problemen ist X ein konvexes Polyeder. Dies gilt bei nichtlinearen Problemen häufig nicht. Definition Sei also X R n die Menge der zulässigen Lösungen eines nichtlinearen Optimierungsproblems. 1. Ein Punkt x* X heißt globales Maximalstelle der Funktion F : X R, falls F(x) F(x*) für alle x X gilt. 2. Ein Punkt x* X heißt lokales Maximalstelle der Funktion F : X R, falls F(x) F(x*) für alle x aus einer Umgebung von x* gilt. H. Weber, FHW, OR SS06, Teil 5, Seite 14
15 3. Eine globale und ein lokale Minimalstelle sind analog definiert. Bei auf R definierten zweimal stetig differenzierbaren Funktionen F kennen wir aus der Schule notwendige und hinreichende Bedingungen für Maxima und Minima. a) x* lokale Maximalstelle von F F (x*) = 0 b) x* lokale Minimalstelle von F F (x*) = 0 c) F (x*) = 0 und F (x*) < 0 x* lokale Maximalstelle von F d) F (x*) = 0 und F (x*) > 0 x* lokale Minimalstelle von F Es gibt auch noch kompliziertere hinreichende Bedingungen, die höhere Ableitungen mit einbeziehen. Sie sollen uns hier nicht interessieren. Wir erweitern nun diese Aussagen für zweimal stetig differenzierbare Funktionen F : R n R. H. Weber, FHW, OR SS06, Teil 5, Seite 15
16 Definition Der Vektor F(x) = F( x) x 1... F( x) x n der partiellen Ableitungen an der Stelle x heißt der Gradient von F. Er gibt in jedem Punkt x die Richtung des steilsten Anstiegs der Funktion F an. Die quadratische nxn-matrix H(x) = F( x) F( x) F( x)... x1 x1 x1 x2 x1 x n F( x) F( x) F( x)... x2 x1 x2 x2 x2 xn F( x) F( x) F( x)... xn x1 xn x2 xn x n der zweiten H. Weber, FHW, OR SS06, Teil 5, Seite 16
17 partiellen Ableitungen von F in x X nennt man die Hesse-Matrix. Die Hesse-Matrix ist symmetrisch wegen 2 2 F( x) F( x) = x x x x. i j j i Beispiel: 2 2 Die Zielfunktion F(x 1,x 2 ) = 5 x 1 x x 2 x 2 besitzt den Gradienten 5 2x1 2 0 F(x) = 5 2x 2 und die Hesse-Matrix H(x) = 0 2. Definition 1. Eine symmetrische nxn-matrix C heißt positiv definit, wenn x T Cx > 0 für alle x 0 gilt. 2. Eine symmetrische nxn-matrix C heißt positiv semidefinit, wenn x T Cx 0 für alle x 0 gilt. H. Weber, FHW, OR SS06, Teil 5, Seite 17
18 Satz Sei X R n offene Menge. Sei F: X R eine zweimal stetig differenzierbare Funktion von n Variablen x = (x 1,..., x n ) T. a) Hat F an der Stelle x* X ein lokales Maximum bzw. Minimum, so gilt F(x*) = 0. b) Ist F(x*) = 0 und -H(x*) positiv definit, so hat F an der Stelle x* ein lokales Maximum. c) Ist F(x*) = 0 und H(x*) positiv definit, so hat F an der Stelle x* ein lokales Minimum. Beispiel: 2 2 Die Funktion F(x 1,x 2 ) = 5 x 1 x x 2 x 2 besitzt im Punkt 2 0 x* = (2.5, 2.5) T ein lokales Maximum, da -H(x) = 0 2 für alle x positiv definit ist. H. Weber, FHW, OR SS06, Teil 5, Seite 18
19 Definition: a) Eine auf einer konvexen Menge X definierte Funktion F heißt konvex, wenn für je zwei Punkte x 1, x 2 X und für alle x = λx 1 + (1-λ)x 2 mit 0 < λ < 1 gilt: F(x) λf(x 1 ) + (1-λ)F(x 2 ) Sie heißt streng konvex, wenn F(x) < λf(x 1 ) + (1-λ)F(x 2 ) gilt. b) Eine auf einer konvexen Menge X definierte Funktion F heißt konkav, wenn für je zwei Punkte x 1, x 2 X und für alle x = λx 1 + (1-λ)x 2 mit 0 < λ < 1 gilt: F(x) λf(x 1 ) + (1-λ)F(x 2 ) Sie heißt streng konkav, wenn F(x) > λf(x 1 ) + (1-λ)F(x 2 ) gilt. H. Weber, FHW, OR SS06, Teil 5, Seite 19
20 H. Weber, FHW, OR SS06, Teil 5, Seite 20
21 In der Literatur wird allgemein von konvexer Optimierung gesprochen, wenn man es mit einer konvexen bzw. konkaven Zielfunktion zu tun hat und die Menge X der zulässigen Lösungen konvex ist. Satz Sei F: X R eine auf einer konvexen Menge X R n definierte konkave Funktion. a) Eine lokale Maximalstelle x* von F ist sogleich globale Maximalstelle von F auf X. b) Ist F zweimal stetig differenzierbar auf der offenen Menge X, so ist F(x*) = 0 eine notwendige und hinreichende Bedingung für eine globale Maximalstelle. H. Weber, FHW, OR SS06, Teil 5, Seite 21
22 3. Probleme ohne Nebenbedingungen Die Behandlung von unrestringierten Optimierungsproblemen hat deswegen einen hohen Stellenwert, weil sie in vielen Verfahren zur Lösung komplexerer Probleme als Teilproblem auftreten. Im letzten Abschnitt haben wir Resultate und Vorgehensweisen zur Analyse unrestringierter Probleme bei zweimal stetig differenzierbaren Funktionen kennengelernt. Für die praktische Arbeit sind jedoch numerische Verfahren zur Bestimmung der Extremwerte unumgänglich. Die hierfür in Frage kommenden Verfahren lassen sich grob einteilen in: a) solche, die keine Ableitungen von F benutzen, b) solche, die Ableitungen F (x) bzw. F(x) von F benötigen. H. Weber, FHW, OR SS06, Teil 5, Seite 22
23 Probleme mit einer Variablen Zu lösen sei das nichtlineare Optimierungsproblem: Maximiere F(x) mit x R. Zur Gruppe a) gehören u.a. die Methode des goldenen Schnitts, das Fibonacci-Verfahren. Zur Gruppe b) gehören u.a. das Bisektionsverfahren das Newton-Verfahren das Sekanten-Verfahren H. Weber, FHW, OR SS06, Teil 5, Seite 23
24 Die Methode des goldenen Schnitts Dabei sei F : R R eine konkave Funktion. Damit ist jedes lokale Maximum auch ein globales Maximum. Ausgegangen wird von einem Intervall [a 1, b 1 ] in dem sich ein globales Maximum x* befinden muß. Mit jeder Iteration wird das Intervall verkleinert, so daß man sich beliebig einem Maximum der Funktion nähern kann. Von einem Ausgangsintervall wird stets ein Teil δ abgeschnitten, so daß sich δ zum Rest ( - δ ) genauso verhält, wie ( - δ ) zum Gesamtintervall : δ δ =. δ Diese Gleichung ist nur für δ = bzw. - δ = erfüllt. Gegeben: a 1, b 1 und ε. H. Weber, FHW, OR SS06, Teil 5, Seite 24
25 Algorithmus Methode des Goldenen Schnitts Start: Berechne λ 1 = a 1 + δ (b 1 a 1 ) und µ 1 = a 1 + (1-δ )(b 1 a 1 ). Iteration k ( =1, 2, ): Falls (b k a k ) < ε, Abbruch der Verfahrens a) Falls F(λ k ) < F(µ k ), setze a k+1 = λ k, b k+1 = b k, λ k+1 = µ k, µ k+1 = a k+1 + (1-δ )(b k+1 a k+1 ) b) Falls F(λ k ) F(µ k ), setze a k+1 = a k, b k+1 = µ k, µ k+1 = λ k, λ k+1 = a k+1 + δ (b k+1 a k+1 ) Gehe zur nächsten Iteration. H. Weber, FHW, OR SS06, Teil 5, Seite 25
26 Abgetrennt wird also immer derjenige Teil eines Intervalls, der links bzw. rechts des Punktes λ k bzw. µ k mit dem kleineren der beiden Funktionswerte liegt. Beim Newton-Verfahren handelt es sich um die Anwendung des bekannten Verfahrens auf die Gleichung F (x) = 0. H. Weber, FHW, OR SS06, Teil 5, Seite 26
27 Algorithmus Newton-Verfahren Startwert: x 0, Schranke ε>0, Zähler: k=0 Iteration: x k+1 = x k F (x k )/F (x k ) falls x k x k+1 < ε, Abbruch des Verfahrens. k = k+1, nächste Iteration Es sind hier auch andere Abbruchkriterien möglich. Die anderen Verfahren sind aus der Vorlesung über Numerische Mathematik bekannt. Diese Verfahren werden hier auch auf die Funktion F (x) angewandt. H. Weber, FHW, OR SS06, Teil 5, Seite 27
28 Probleme mit mehreren Variablen Wir betrachten nichtlineare Optimierungsprobleme der Form: Maximiere F(x) mit x R n. Aus der Vielzahl verfügbarer Verfahren unter Verwendung von Ableitungen betrachten wir hier prototypisch das Gradientenverfahren, auch bekannt als Methode des stärksten Anstiegs/Abstiegs. Stellt man eine Funktion F : R 2 R grafisch dar, so erhält man eine Landschaft mit Bergen und Tälern. Bild a) zeigt einen Berg mit zwei Gipfeln. Bild b) zeigt einen Berg mit einem Gipfel H. Weber, FHW, OR SS06, Teil 5, Seite 28
29 a) H. Weber, FHW, OR SS06, Teil 5, Seite 29
30 b) H. Weber, FHW, OR SS06, Teil 5, Seite 30
31 Der Gradient von F im Punkt x = ( x1, x2) zeigt lokal in die Richtung des stärksten Anstiegs, seine Länge ist ein Maß für die Stärke des Anstiegs. Es empfiehlt sich, jeweils so lange in Richtung des stärksten Anstiegs zu gehen, bis in dieser Richtung kein Anstieg mehr möglich ist. Das gerade macht das Gradientenverfahren. Um den in Richtung des Gradienten von x aus erreichbaren, bezüglich F maximalen Punkt zu bestimmen, löst man das eindimensionale Teilproblem: Maximiere H ( λ) = F( x + λ F( x)) mit λ > 0. λ ist die Schrittweite. Man hat sie so zu bestimmen, daß der Anstieg in Richtung des Gradienten maximal wird. H. Weber, FHW, OR SS06, Teil 5, Seite 31
32 Algorithmus Gradientenverfahren Voraussetzungen: stetig differenzierbare, konkave Funktion F: R n R, Abbruchschranke ε > 0, Anfangspunkt x (0) R n. Iteration k ( = 0, 1, 2,...): Schritt 1: ( ) Gradient F( x k ) berechnen, ( ) (*) falls F( x k ) < ε, Abbruch der Verfahrens. Schritt 2: * (+) Berechne den Wert λ > 0, für den die ( k) ( k) Funktion H( λ) = F( x + λ F( x )) maximal ist. Setze ( k + 1) ( ) * ( ) x = x k + λ F( x k ) und gehe zu Iteration k+1. Das Resultat ist eine Näherung für den Maximalpunkt von F. H. Weber, FHW, OR SS06, Teil 5, Seite 32
33 Eine Alternative zum hier verwendeten Abbruchkriterium (*) ist: ( 1) ( ) (**) Falls k k x + x < ε, Abbruch des Verfahrens. Die eindimensionale Maximierung (+) kann mit Hilfe eines der oben genannten Verfahren (goldener Schnitt, Sekanten-Verfahren, Newton- Verfahren, etc.) vorgenommen werden. Beispiel: F( x) = 2x x + 2x x x x 2x 2 1 F( x) = 2x1+ 2 2x 2 x (0) = ( 0, 0 ) x (4) = (¾, ¾) x* = ( 1, 1 ) x (1) = ( 0, ½) x (5) = (¾, 7 / 8 ) x (2) = ( ½, ½) x (6) = ( 7 / 7 8, / 8) x (3) = ( ½, ¾) u.s.w. H. Weber, FHW, OR SS06, Teil 5, Seite 33
34 Es ergibt sich eine Art Zickzackweg zum Maximalpunkt! H. Weber, FHW, OR SS06, Teil 5, Seite 34
35 Niveaulinien und Iterationsfolge für ein anderes Beispiel: H. Weber, FHW, OR SS06, Teil 5, Seite 35
36 Das Gradientenverfahren konvergiert unter ungünstigen Umständen nur langsam. Es gibt jedoch nach ähnlichem Prinzip funktionierende Verfahren, die ihre Anstiegsrichtungen auf kompliziertere Weise ermitteln (konjugierte Gradienten, Newton-Verfahren, etc) und schneller konvergieren. H. Weber, FHW, OR SS06, Teil 5, Seite 36
37 4. Probleme mit Nebenbedingungen - Theorie Wir betrachten nun endlich Probleme der Form (NL) Maximiere F(x) unter den Ungleichungsnebenbedingungen g i (x) 0, i = 1,,m und Nichtnegativitätsbedingungen x j 0, j = 1,,n, wobei F: R n R, F, g stetig. Kurz formuliert: Maximiere F(x) unter den Ungleichungsnebenbedingungen g(x) 0 und Nichtnegativitätsbedingungen x 0, wobei x R n und g : R n R m, F: R n R. Man kann auch Gleichungsnebenbedingungen in das Problem einbeziehen, etwa der Form h(x) = 0 mit einer Funktion h : R n R p H. Weber, FHW, OR SS06, Teil 5, Seite 37
38 Die Charakterisierung von Maximalstellen dieses Problems ist kompizierter als bei nichtrestringierten Aufgaben. Definition: Die Funktion L: R + n+m R mit L(x, u) := F(x) u T g(x), wobei x R + n, u R + m, bezeichnet man als Lagrange-Funktion des Problems. Die zusätzlichen Variablen u 1,...,u m heißen Lagrange- Multiplikatoren. Definition: Seien F und g stetig. Ein Vektor (x*, u*) T des R + n+m wird Sattelpunkt einer Funktion L(x, u) genannt, wenn für alle x R + n und alle u R + m gilt: L(x, u*) L(x*, u*) L(x*, u) H. Weber, FHW, OR SS06, Teil 5, Seite 38
39 Für n = m = 1 ist ein Sattelpunkt in folgender Zeichnung dargestellt. H. Weber, FHW, OR SS06, Teil 5, Seite 39
40 x* ist für festes u* 0 globales Maximum der Funktion L(x, u*), wenn x in R + n variert. u* ist für festes x* 0 globales Minimum der Funktion L(x*, u), wenn u in R + m variert. Sattelpunktsatz (x*, u*) ist Sattelpunkt von L(x, u) x* ist Maximalstelle von NL Die Verwendung des Sattelpunksatzes ist im allgemeinen sehr schwierig, weil man die Gültigkeit der Ungleichungskette L(x, u*) L(x*, u*) L(x*, u) nachweisen muß. Für Probleme mit stetig differenzierbaren Funktionen F und g gibt es einfachere Aussagen. H. Weber, FHW, OR SS06, Teil 5, Seite 40
41 Definition: Die Slater-Bedingung ist erfüllt, falls es ein x 0 gibt mit g(x) 0. Satz (Karush-Kuhn-Tucker) a) Gegeben sei Problem NL mit stetig differenzierbaren Funktionen F und g. Dann folgt aus der Sattelpunktseigenschaft von (x*,u*), daß (KKT1) L x (x*, u*) 0 (KKT2) x* T L x (x*, u*) = 0 (KKT3) L u (x*, u*) 0 (KKT4) u* T L u (x*, u*) = 0 (KKT5) u* 0, x* 0 b) Sind darüber hinaus F konkav, alle g i konvex, i=1,...,m und ist die Slater-Bedingung erfüllt, so sind die KKT-Bedingungen notwendig und hinreichend dafür, daß sich in x* ein globales Maximum von NL befindet. H. Weber, FHW, OR SS06, Teil 5, Seite 41
42 Wir betrachten noch einmal die Aufgabe: Maximiere F(x 1, x 2 ) = 5x 1 x x 2 x 2 2 unter den Nebenbedingungen x 1 + 2x (g 1 (x):= x 1 + 2x 2 8) 3x 1 + x (g 2 (x):= 3x 1 + x 2 9) und x 1, x 2 0, H. Weber, FHW, OR SS06, Teil 5, Seite 42
43 Die Zielfunktion ist konkav und die Nebenbedingungen konvex. Die Slater-Bedingung ist erfüllt, da die Menge der zul. Lösungen ein konvexes Polyeder ist. Daher sind die KKT-Bedingungen notwendig und hinreichend für ein globales Optimum. Die Lagrange-Funktion des Problems lautet: L(x, u) = 5x 1 x x 2 x 2 2 u 1 (x 1 + 2x 2 8) u 2 (3x 1 + x 2 9) Die KKT-Bedingungen haben hier das Aussehen: KKT1 L x : 5 2x 1 1 u 1 3u 2 0, L x : 5 2x 2 2 2u 1 u 2 0 KKT2 xl 1 x : x 1 1 (5 2x 1 u 1 3u 2 ) = 0, xl 2 x : x 2 2 (5 2x 2 2u 2 u 2 ) = 0 KKT3 L u : x x 2 8 0, L u : 3x x KKT4 ul 1 u : u 1 1 (x 1 + 2x 2 8) = 0, ul 2 u : u 2 2 (3x 1 + x 2 9) = 0 KKT5 u 1 0, u 2 0, x 1 0, x 2 0 H. Weber, FHW, OR SS06, Teil 5, Seite 43
44 Der früher ermittelte Minimalpunkt des unrestringierten Problems ist A = (2.5, 2.5). Die Linien gleicher Abweichung der Zielfunktion von diesem Punkt sind gestrichelt. Der Maximierung der obigen Zielfunktion entspricht die Ermittlung eines Punktes x aus dem zulässigen Bereich, so daß der Radius des Kreises, auf dem er liegt, minimal ist. Damit findet man den Punkt B = (2.2, 2.4). Die Untersuchung der KKT-Bedingungen ergibt, daß der Vektor (x 1 = 2.2, x 2 = 2.4, u 1 = 0, u 2 = 0.2) alle Bedingungen erfüllt. Also ist B die optimale Lösung unseres Problems. H. Weber, FHW, OR SS06, Teil 5, Seite 44
45 5. Probleme mit Nebenbedingungen Verfahren Es gibt eine Vielzahl von mehr oder weniger komplizierten Verfahren zur Lösung von nichtlinearen Optimierungsproblemen mit Gleichungs- bzw. Ungleichungs-Nebenbedingungen. Zum Überblick können wir diese sehr grob einteilen in: 1. Verwendung der KKT-Bedingungen Hierbei wird aus den KKT-Bedingungen ein ein nichtlineares Gleichungssystem hergeleitet und dies numerisch, etwas mit dem Newton-Verfahren gelöst. Dies ist sehr aufwendig und funktioniert nur bei guten Startwerten. 2. Verfahren der zulässigen Richtungen Man geht aus von einem zulässigen Startpunkt und bestimmt eine zulässige Anstiegsrichtung der Zielfunktion. In diese Richtung bewegt H. Weber, FHW, OR SS06, Teil 5, Seite 45
46 man sich soweit, daß die Zielfunktionswert maximal erhöht wird und man im zulässigen Bereich bleibt. Dies wird iteraiv wiederholt, solange bis ein maximum gefunden ist. Problematisch ist die Bewegung auf dem Rand des zulässigen Bereichs, vor allem bei nichtlinearen Nebenbedingungen. Die Konvergenz ist im allgemeinen langsam. 3. Straffunktionsverfahren Die Idee der Straffunktionsverfahren ist, ein restringiertes Problem in eine Folge parameterabhängiger, unrestringierter Probleme zu transformieren. Dies geschieht durch von einem wachsenden Parameter abhängige Addition/Subtraktion bestimmter Strafterme zur Zielfunktion. Die resultierenden Aufgaben werden dann mit Hilfe der bekannten, relativ einfachen Methoden für unrestringierte Verfahren (z.b. Gradientenverfahren) numerisch näherungsweise gelöst. Theoretisch ist diese Vorgehensweise sehr attraktiv. Praktisch ergeben sich jedoch numerische Schwierigkeiten, wenn der Parameter groß wird. H. Weber, FHW, OR SS06, Teil 5, Seite 46
47 Verfahren der zulässigen Richtungen Eines dieser Verfahren ist der Algorithmus von Frank und Wolfe. Er ist anwendbar auf die folgende Problemklasse: Maximiere F(x), F: R n R, unter den linearen Ungleichungs- und Gleichungsnebenbedingungen (a i ) T x b i, i= 1,,s (a i ) T x = b i, i= s+1,,m Zulässige Aufstiegsrichtungen werden mit Hilfe der Linearisierungsmethode gewonnen. Die nichtlineare Zielfunktion wird im Punkt x linear approximiert: (F(x) + ( F(x)) T (y-x)) = Max! (a i ) T y b i, i= 1,,s (a i ) T y = b i, i= s+1,,m H. Weber, FHW, OR SS06, Teil 5, Seite 47
48 Mit c:= F(x) ist die äquivalent zur Aufgabe Maximiere c T y unter den Nebenbedingungen (a i ) T y b i, i= 1,,s (a i ) T y = b i, i= s+1,,m Dies ist ein LOP! Der Algorithmus von Frank und Wolfe setzt sich also aus der Bestimmung der Aufstiegsrichtung durch den Simplex-Algorithmus und die nachfolgende eindimensionale Maximierung in Richtung dieser Aufstiegsrichtung zusammen. Das Ganze wird iterativ durchgeführt. Er ist allerdings auf die Problemklasse mit linearen Nebenbedingungen beschränkt. H. Weber, FHW, OR SS06, Teil 5, Seite 48
49 Algorithmus von Frank und Wolfe 0. Bestimme einen zulässigen Punkt x (0), falls nötig, mit Phase 1 des Simplex-Algorithmus. Setze k:= Berechne c (k) := F(x (k) ). 2. Bestimme y (k) als Lösung des LOPs c (k)t y = Max! unter (a i ) T y b i, i= 1,,s (a i ) T y = b i, i= s+1,,m 3. Falls c (k)t y (k) = c (k)t x (k), dann Abbruch des Verfahrens. 4. Setze d (k) := y (k) x (k) und berechne eine optimale Schrittweite λ, so ( k) ( k) daß die Funktion H( λ) = F( x + λd )) maximal ist. 5. Setze x (k+1) := x (k) + λd (k), k:= k+1. und gehe zu 1. H. Weber, FHW, OR SS06, Teil 5, Seite 49
50 Beispiel: Maximiere F(x) = 5x 1 x x 2 2x 2 2 unter 3x 1 + 2x 2 6, x 0 Start mit dem zulässigen Punkt x (0) = (0, 0) T liefert die Iterationsfolge x (1) = (2, 0) T, x (2) = ( 5 / 6, 7 / 6 ) T, x (3) = die nach Augenschein in die Richtung des Punktes x = (1, 3 / 2 ) strebt. Dies ist tatsächlich die gseuchte Lösung. Allerdings braucht man sehr viele Iterationsschritte, um sie mit guter Genauigkeit zu erreichen H. Weber, FHW, OR SS06, Teil 5, Seite 50
51 H. Weber, FHW, OR SS06, Teil 5, Seite 51
52 Straffunktionsverfahren Wir betrachten hier konvexe Probleme (also mit konvexen Nebenbedingungen und konkaver Zielfunktion) der Gestalt (*) maximiere F(x), F: R n R, unter g i (x) 0, i=1,...,m, x 0 Auch Probleme mit Gleichungsnebenbedingungen können hier behandelt werden. Es gibt zwei prinzipielle Varianten dieser Verfahren, die sog. Penalty- Verfahren und die sog. Barriere-Verfahren. H. Weber, FHW, OR SS06, Teil 5, Seite 52
53 Penalty-Verfahren Hier wird von der Zielfunktion F eine Penalty-Funktion, P: R n R +, abgezogen, es ergibt sich F(x, µ) := F(x) µp(x), µ>0 Der Wert von P(x) strebt gegen unendlich, je weiter x außerhalb des zulässigen Bereichs X liegt. Für x X gilt P(x) = 0. Eine nützliche Penalty-Funktion ist m n 2 2 i i i= 1 j= 1 Px ( ) = [max (0, g( x))] + [max (0, x)] Damit wird ein Verstoß gegen die Zulässigkeit zwar erlaubt, in der Zielfunktion jedoch bestraft. Charakteristisch für diese Verfahren ist die Approximation von außen. H. Weber, FHW, OR SS06, Teil 5, Seite 53
54 Das bedeutet, daß die durch ein Penalty-Verfahren sukzessiv berechnete Folge von Näherungslösungen x (0), x (1),..., x (q) gilt: x (k) X für alle k. Penalty-Funktion im Eindimensionalen für g 1 (x) = x-b und g 2 (x) = a-x H. Weber, FHW, OR SS06, Teil 5, Seite 54
55 Algorithmus Penalty-Verfahren Sei µ 1, µ 2,... Folge von positiven Zahlen mit µ k, µ k+1 > µ k. Für jedes k = 0,1,2... löse man das unrestringierte Problem Maximiere F(x, µ k ) := F(x) µ k P(x). Anfangswert sei jeweils die Lösung des vorigen Problems mit µ = µ k-1. Die Lösung des Problems für µ = µ k-1 sei x k. Die Lösungen x k der unrestringierten Probleme streben dann gegen die Lösung x* der restringierten Optimierungsaufgabe (*). H. Weber, FHW, OR SS06, Teil 5, Seite 55
56 Barriere-Verfahren Im Gegensatz zu den eben betrachteten Außenbereichs-Verfahren bezeichnet man die Barriere-Verfahren auch als Innenbereichs- Verfahren. Man betrachtet hier meist ein Zielfunktion der Form P(x,r) = F(x) rb(x) mit r > 0, die zu maximieren ist. Die sog. Barriere-Funktion B(x) soll verhindern, daß die Iteration den zulässigen Bereich X verläßt. Sie sollte deshalb folgende Eigenschaften besitzen: 1. B(x) ist klein, wenn x X weit von der Grenze von X entfernt ist. Im Innern von X soll also F möglichst wenig verfälscht werden. 2. B(x) ist groß, wenn sich x X der Grenze des zulässigen Bereichs nähert. 3. B(x) strebt gegen unendlich für x gegen den Rand von X. H. Weber, FHW, OR SS06, Teil 5, Seite 56
57 Wenn wir beispielsweise Bx ( ) m n 1 1 = + g ( x) x i= 1 i j= 1 j setzen, sind die drei Forderungen erfüllt. Der zweite Term sichert die Einhaltung der Nichtnegativitätsbedingungen, der erste die der übrigen Nebenbedingungen. B(x) wird mit einem positiven Parameter r gewichtet, der von Iteration zu Iteration um einen Faktor verkleinert wird. H. Weber, FHW, OR SS06, Teil 5, Seite 57
58 Der Algorithmus SUMT (Sequential Unconstrained Maximization Technique) Voraussetzung: Maximierungsproblem (*) mit konkavem F und konvexem X, zulässiger Punkt x (0), der nicht auf dem Rand von X liegen darf, Abbruchschranke ε > 0, zwei Parameter θ (0,1) und r > 0. Iteration k (=0,1,...) Ausgehend von x (k) verwende man ein Verfahren der unrestringierten Minimierung zur Bestimmung der Näherung x (k+1) für ein lokales Maximum von P(x,r) = F(x) rb(x) Falls x (k) - x (k+1) < ε, Abbruch des Verfahrens, andernfalls setze r := θr und gehe zur nächsten Iteration: k:= k+1. Ergebnis: x (k+1) als Näherung für das lokale Maximum von F in X. H. Weber, FHW, OR SS06, Teil 5, Seite 58
59 Beispiel: Maximiere F(x 1, x 2 ) = 6x 1 + 4x 2 unter den Nebenbedingungen x x x x und x 1, x 2 0 (g 1 (x) = x x , g 2 (x) = 16 x x ) Wir lösen dieses Problem mit SUMT und wählen dabei r = 1, θ=0.1. Startwert: x (0) = (1,1) T. Dann erhalten wir die Folge x (1) = (3.834, 1.928) T x (2) = (4.142, 2.201) T x (3) = (4.238, 2.284) T... x (8) = (4.286, 2.316) T mit F(x (8) ) = H. Weber, FHW, OR SS06, Teil 5, Seite 59
60 Zur Erinnerung unsere Zeichnung vom Anfang des Kapitels: H. Weber, FHW, OR SS06, Teil 5, Seite 60
61 SUMT eignet sich auch zur numerischen Lösung von Aufgaben mit Gleichungsrestriktionen etwa der Form (**) maximiere F(x), R n R, unter g i (x) 0, i=1,...,m, h k (x) = 0, k=1,...,q, x 0 Hier kann man z.b. die Funktion P(x,r) m n q hk ( x) Pxr (, ) = Fx ( ) r( + ) i= 1 gx ( i) j xj k= 1 r zur unrestringierten Maximimierung verwenden. H. Weber, FHW, OR SS06, Teil 5, Seite 61
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
Kontinuierliche Optimierung
Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen
Übung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II
Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer
Kuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
Konvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)
(3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,
Rückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
Das Subgradientenverfahren
Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten
Optimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
5.10. Mehrdimensionale Extrema und Sattelpunkte
5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(
Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1
1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.
Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
Anwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
2 Funktionen in mehreren Variablen: Differentiation
Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v
Extremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =
Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt
Optimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Ausgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
Nachklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe
Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
Kapitel 6 Differential- und Integralrechnung in mehreren Variablen
Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Inhaltsverzeichnis FUNKTIONEN IN MEHREREN VARIABLEN... 3 BEISPIELE UND DARSTELLUNGEN... 3 GRENZWERT UND STETIGKEIT (ABSTANDSBEGRIFF)...
Mehrdimensionale Differentialrechnung Übersicht
Mehrdimensionale Differentialrechnung Übersicht Partielle und Totale Differenzierbarkeit Man kann sich mehrdimensionale Funktionen am Besten für den Fall f : R 2 M R vorstellen Dann lässt sich der Graph
f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
NICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer
Numerische Ableitung
Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:
Operations Research II (Nichtlineare und dynamische Optimierung)
Operations Research II (Nichtlineare und dynamische Optimierung) 5. April 007 Frank Köller,, Hans-Jörg von Mettenheim & Michael H. Breitner 8.4.007 # Nichtlineare Optimierung: Überblick Allgemeine Form:
8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Probeklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen
Rückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
1 Übungsaufgaben zu Kapitel 1
Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:
KAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
Musterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 [email protected] http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
Teil 6. Differentialrechnung mehrerer Veränderlicher
Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
Lösungsvorschlag zur Nachklausur zur Analysis
Prof Dr H Garcke, D Depner SS 09 NWF I - Mathematik 080009 Universität Regensburg Lösungsvorschlag zur Nachklausur zur Analysis Aufgabe Untersuchen Sie folgende Reihen auf Konvergenz und berechnen Sie
Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
(a), für i = 1,..., n.
.4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung
Extrema multivariater Funktionen
Extrema multivariater Funktionen Ist f (x ) ein Minimum (Maximum) einer stetig differenzierbaren skalaren Funktion f auf einer Umgebung U von x, so gilt grad f (x ) = (0,..., 0) t. Extrema multivariater
Mathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
Das Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Folgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
10 Extremwerte mit Nebenbedingungen
10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen
Optimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
Das Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
Übersicht. 1. Motivation. 2. Grundlagen
Übersicht 1. Motivation 2. Grundlagen 3. Analysis 3.1 Folgen, Reihen, Zinsen 3.2 Funktionen 3.3 Differentialrechnung 3.4 Extremwertbestimmung 3.5 Nichtlineare Gleichungen 3.6 Funktionen mehrerer Variabler
Newton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015
Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum
Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung
TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen
3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z
R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des
Monotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
Monotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
Die Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
Klausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
Einführung in die numerische Mathematik
Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis
2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!
Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist
Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
Optimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik
Konvexe Optimierung I Sommersemester Kapitel 0
Sommersemester 2013 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 15. April 2013 Konvexe Optimierung Was ist das? Was bedeutet Optimierung? Was bedeutet
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe
Studientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line
Mathematik I Herbstsemester 2018 Kapitel 4: Anwendungen der Differentialrechnung
Mathematik I Herbstsemester 2018 Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 55 4. Anwendungen der Differentialrechnung Monotonie Krümmung Linearisierung einer Funktion Extremwerte
Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )
Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse
Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag
MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr. E. Schörner WS 06/7 Blatt 4 5..06 Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag 3. Die gegebene Polynomfunktion f : R R, f(x, y) =
Extrema mit Nebenbedingungen
Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst
6 Die Bedeutung der Ableitung
6 Die Bedeutung der Ableitung 24 6 Die Bedeutung der Ableitung Wir wollen in diesem Kapitel diskutieren, inwieweit man aus der Kenntnis der Ableitung Rückschlüsse über die Funktion f ziehen kann Zunächst
