14. Das Minimumprinzip
|
|
- Horst Maurer
- vor 6 Jahren
- Abrufe
Transkript
1 H.J. Oberle Variationsrechnung u. Optimale Steuerung SoSe Das Minimumprinzip In diesem Abschnitt behandeln wir die Idee der dynamischen Programmierung, die auf Bellmann 31 (1957) zurückgeht und geben in diesem Zusammenhang eine heuristische Herleitung des Minimumprinzips an. Dazu betrachten wir (wie in Abschnitt 12) einen Spezialfall einer Optimalsteuerungsaufgabe, der dadurch gekennzeichnet ist, dass der Zustandsvektor im Anfangspunkt vollständig vorgegeben und im Endpunkt vollständig frei ist. Problemstellung (14.1) Zu minimieren sei das Funktional I(u) := g(x(t b )) + t b f 0 (t, x(t), u(t)) dt über (x, u) C 0,1 s ([, t b ], R n ) C s ([, t b ], R m ) unter den Nebenbedingungen x (t) = f(t, x, u), t t b, x( ) = x a, u(t) U R m. U sei wiederum ein konvexer und abgeschlossener Steuerbereich. Wir betrachten nun den (optimalen) Wert des Zielfunktionals in Abhängigkeit von den Anfangsdaten (t 0, x 0 ). Genauer definieren wir zu [, t b ] und ˆx R n V (, ˆx) := Îopt, (14.2) wobei Î opt erhalten wird durch Lösung eines Hilfsproblems, genauer durch Minimierung des Funktionals (Restwert) Î(u) := g(x(t b )) + t b f 0 (t, x(t), u(t)) dt (14.3) unter den Nebenbedingungen x (t) = f(t, x, u), t t b, x() = ˆx, u(t) U, t t b. V (, ˆx) heißt die Wertfunktion des Optimalsteuerungsproblems (14.1). 31 Richard Bellman ( ); Princeton, RAND Corporation, University of Southern California 156
2 Annahme (14.4) Wir nehmen im Folgenden an, dass V für alle [, t b ] und ˆx x 0 () < ε definiert sei (wobei (x 0, u 0 ) eine Lösung des Problems (14.1) und ε > 0 sei) und dass V auf diesem Bereich eine C 2 Funktion sei. Aus der Definition der Wertfunktion folgt dann unmittelbar, dass V (t b, ˆx) = g(ˆx), für ˆx x 0 (t b ) < ε, und hieraus durch Differentiation nach ˆx: V x (t b, ˆx) = g(ˆx). (14.5) Zur Auswertung von V (, ˆx) ist eine optimale Steuerung für das Teilintervall [, t b ] bezogen auf den Anfangswert ˆx zu bestimmen. Wird nun speziell ˆx := x 0 () gewählt, so ist zu erwarten, dass dieses Optimierungsproblem gerade von der Restriktion der (globalen) optimalen Steuerung u 0 auf das Teilintervall [, t b ] gelöst wird. Dies ist der Inhalt des so genannten Bellmannschen Optimalitätsprinzips. Satz (14.6) (Bellmannsches Optimalitätsprinzip) Liegt der Anfangspunkt (, ˆx) auf der Lösung des Ausgangsproblems, d.h. gilt ˆx = x 0 (), so ist die optimale Steuerung für das Hilfsproblem (14.3) gegeben durch u 0 (t), t t b. Minderen Worten: Teilsteuerungen u 0 [, t b ] des Ausgangsproblems sind optimal für das Teilstück [, t b ] und den Anfangszustand x 0 (). Beweis: Gäbe es eine Steuerung ũ C s ([, t b ], U) mit Î(ũ) < Î(u 0), so setze man diese folgendermaßen fort û(t) := u0 (t), 0 t < ũ(t), t t b. û ist dann eine zulässige Steuerung für das Ausgangsproblem und liefert wegen ˆx = x 0 () den zugehörigen Zustandsvektor ˆx(t) := x0 (t), 0 t < x(t), t t b, wobei x der zu ũ zugehörige Zustand des Hilfsproblems ist. Damit folgt I(û) = < f 0 (t, x 0, u 0 ) dt + Î(ũ) f 0 (t, x 0, u 0 ) dt + Î(u 0) = I(u 0 ), 157
3 im Widerspruch zur vorausgesetzten Optimalität von u 0. Wir betrachten nun die folgende Konstruktion von Vergleichssteuerungen: Zu einem Punkt (, ˆx) [, t b [ R n in der Nähe der optimalen Zustandstrajektorie und hinreichend kleinem h > 0 werde die optimale Steuerung im Intervall [, + h[ ersetzt durch eine beliebige stetige Funktion u C([, + h], U). Der zugehörige Zustand x(t), t + h wird dann durch Lösung der Anfangswertaufgabe x (t) = f(t, x, u), x() = ˆx bestimmt. Der Rest der Vergleichstrajektorie (x(t), u(t)), t [ + h, t b ] wird wiederum optimal gewählt im Sinn des Hilfsproblems (6.70) zum Anfangspunkt ( + h, x( + h)). Damit folgt die Bellmannsche Rekursion: V (, ˆx) = min +h f 0 (t, x, u) dt + V ( + h, x( + h)) u C([, + h], U) (14.7) Wird ferner ˆx = x 0 () gewählt, so wird das Minimum in (14.7) gerade für u 0 (t), t + h angenommen. Wir bilden nun die Taylor Entwicklung der rechten Seite von (14.7) bezüglich der Größe h. Dabei sei nun u eine feste (von h unabhängige) stetige Funktion auf [, + h max ] in U. +h f 0 (t, x, u) dt = f 0 (, ˆx, u()) h + O(h 2 ) V ( + h, x( + h)) = V (, ˆx) + ( ) V t (, ˆx) + V x (, ˆx) T x () h + O(h 2 ). Setzt man dies in (14.7) ein, so folgt ( ) 0 = min f 0 (, ˆx, u()) + V t (, ˆx) + V x (, ˆx) T x () h + O(h 2 ) u() U und schließlich für h 0: 0 = min f 0 (, ˆx, u()) + V t (, ˆx) + V x (, ˆx) T f(, ˆx, u()) u() U (14.8) Wir geben noch eine etwas ausführlichere Begründung für (14.8): 1.) Zunächst folgt mit der Bellmann Rekursion (14.7) für alle hinreichend kleinen h > 0: +h f 0 (t, x, u) dt + V ( + h, x( + h)) V (, ˆx)
4 Die linke Seite wird bzgl. h nach Taylor entwickelt um h = 0. Der führende Term muss dann auch nichtnegativ sein: f 0 (, ˆx, u()) + V t (, ˆx) + V x (, ˆx) T f(, ˆx, u()) 0. 2.) Wählt man u nun optimal im Sinne des Hilfsproblems (14.3), so gilt nach dem Bellmannschen Optimalitätsprinzip +h f 0 (t, x, u) dt + V ( + h, x( + h)) V (, ˆx) = 0. Hier muss nun auch der führende Term der Taylor Entwicklung verschwinden: f 0 (, ˆx, u()) + V t (, ˆx) + V x (, ˆx) T f(, ˆx, u()) = 0. Aus diesen beiden Relationen zusammen folgt die Beziehung (14.8). Darüber hinaus folgt: Im Fall ˆx = x 0 () wird das Minimum in (14.8) gerade für u() = u 0 () angenommen. Definieren wir nun λ(t) := V x (t, x 0 (t)) (adjungierte Variable), H(t, x, u.λ) := f 0 (t, x, u) + λ T f(t, x, u) (Hamilton Funktion). (14.9) so lautet (14.8) nun V t (, ˆx) = min H(, ˆx, û, V x (, ˆx)) û U, (14.10) wobei das Minimum im Fall ˆx = x 0 () gerade für û = u 0 () angenommen wird. (14.10) ist eine (i. Allg. nichtlineare) partielle Differentialgleichung erster Ordnung für die Wertfunktion. sie heißt Hamilton-Jocobi-Bellmann Gleichung. Zugleich folgt mit (14.10), dass die optimale Steuerung u 0 (t) die Hamilton Funktion längs der optimalen Trajektorie minimiert: H(, x 0 (), u 0 (), λ()) = min H(, x 0 (), u, λ()) u U. (14.11) Dies ist gerade der Inhalt des Minimumprinzips. Es bleibt nun noch zu zeigen, dass die in (14.9) definierten adjungierten Variablen λ mit den früher definierten übereinstimmen. Dazu genügt es, zu zeigen, dass λ den adjungierten Differentialgleichungen sowie den natürlichen Randbedingungen genügt. In vorliegenden Fall ist λ dann als Lösung der entsprechenden Anfangswertaufgabe eindeutig bestimmt. 159
5 Zu den adjungierten Differentialgleichungen. Wählt man ˆx := x 0 (), so wird das Minimum in (14.8) oder in (14.10) gerade für û = u 0 () angenommen. Für ˆx x 0 () wird u 0 () jedoch i. Allg. kein Minimum sein. Damit gilber neben (14.8): 0 = min V t (, ˆx) + H(, ˆx, u 0 (), V x (, ˆx)) ˆx U x (), wobei U x () eine geeignete Umgebung um x 0 () bezeichne. Das Minimum wird in x 0 () angenommen. Damit muss aber der Gradient der Funktion V t (, ˆx) + H(, ˆx, u 0 (), V x (, ˆx)) bezüglich ˆx in x 0 () verschwinden. In Koordinaten geschrieben lautet diese Beziehung (j = 1,..., n) V t xj (, x 0 ()) + H xj (, x 0, u 0, λ) + n H λi (, x 0, u 0, λ) T V xi x j (, x 0 ()) = 0. i=1 Nun folgt nach Definition der Hamilton Funktion H λi = f i (, x 0 (), u 0 ()). Damit lässt sich diese Relation auch folgendermaßen schreiben H xj (, x 0, u 0, λ) + d d V x j (, x 0 (), u 0 (), λ()) = 0 oder λ j() = H xj (, x 0, u 0, λ). Dies ist die bekannte adjungierte Differentialgleichung. Die natürlichen Randbedingungen folgen aus (14.5) λ(t b ) = V x (t b, x 0 (t b )) = g(x(t b )). Damit ist das Minimumprinzip für den betrachteten Spezialfall gezeigt. Der Beweis ist nicht streng, da die Existenz und C 2 Eigenschaft der Wertfunktion vorausgesetzt werden musste. Interpretation der adjungierten Variablen. Als Folgerung aus den obigen Überlegungen ergibt sich eine interessant und nützliche Interpretation der adjungierten Variablen λ(t). Dazu sei (x 0, u 0 ) eine Lösung des Ausgangsproblems und λ die zugehörige adjungierte Variable (gemäß der notwendigen Bedingungen). In [, t b [ werde nun der Zustandsvektor gestört: x 0 () x 0 () + δx(). Ab diesem Zeitpunkt werde dann wieder optimal (bezogen auf den neuen Zustandsvektor) gesteuert. Der Wert der Zielfunktion für diese gestörte Vergleichskurve hängt dann nur vom Störzeitpunkt und von der Störung selbsb: I = Î(, δx()) = f 0 (t, x 0, u 0 ) dt + V (, x 0 () + δx()). 160
6 Aufgrund der Definition (14.9) gilt nun λ() = Î (δx()), (14.12) d.h. λ() beschreibt die Sensitivität des Zielfunktionals in Anhängigkeit von Störungen der Zustandsgrößen zum Zeitpunkt. Insbesondere sind also die adjungierten Variablen auch für die unterschiedlichen Anwendungen interpretierbare (und zumeist auch vom Anwenderstandpunkt wichtige) Größen. Für Anwendung im Rahmen der Wirtschaftswissenschaften haben Feichtinger und Hartl die obige Interpretation sehr intuitiv folgendermaßen beschrieben: λ j (t) giblso an, wieviel es dem Entscheidungsträger wert ist, eine kleine Einheit der Zustandsvariablen x j (t) mehr zu besitzen, unter der Annahme, dass er sich für den Rest des Planungshorizonts optimal verhält. λ(t) heißt Schattenpreis, weil der Kapitalwert nicht den am Kapitalmarkt herrschenden Markpreis darstellt, sondern einen (firmen ) internen Verrechnungspreis, mit dem eine zusätzliche Kapitaleinheit bewertet wird. Minderen Worten misst der Schattenpreis nicht den direkten Verkaufswert, der am Markt für eine Kapitaleinheit erzielt werden kann, sondern den Preis, den ein sich rational verhaltender Entscheidungsträger bereit wäre, für eine zusätzliche Kapitaleinheit zu bezahlen. Version:
3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrDierentialgleichungen 2. Ordnung
Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr15 Hauptsätze über stetige Funktionen
15 Hauptsätze über stetige Funktionen 15.1 Extremalsatz von Weierstraß 15.2 Zwischenwertsatz für stetige Funktionen 15.3 Nullstellensatz von Bolzano 15.5 Stetige Funktionen sind intervalltreu 15.6 Umkehrfunktionen
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
Mehr- 1 - zum Extremum macht, wenn y(x) eine bestimmte, genau charakterisierte Funktionenklasse ( n
- 1 - Variationsrechnung Die Variationsrechnung spielt in der Physik eine entscheidende Rolle. So kann man die Grundgleichungen der Newtonschen Mechanik aus einem Lagrangeschen Variationsprinzip herleiten.
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
MehrRegularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator
Universität Bielefeld Regularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator Matthieu Felsinger Universität Bielefeld Mathematisches Kolloquium, TU Clausthal 05. Februar 2014 1 Einleitung
Mehr3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z
R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrIntegralrechnung. Mathematik-Repetitorium
Integralrechnung 6.1 Geometrische Interpretation 6.2 Grundaufgabe 6.3 Basisintegrale, Regeln 6.4 Produktregel: Partielle Integration 6.5 Quotienten 6.6 Variablensubstitution 6.7 Integration von Potenzreihen
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrCaputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen
Seminar Fraktionale Differentialgleichungen Prof. Dr. P.E. Kloeden, WS1000/2001 Caputo fraktionale Differentialgleichungen Lars Grüne, 25.1.2001 Basierend auf Fractional Differential Equations, Theory
MehrMaximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)
Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrDarstellungsformeln für die Lösung von parabolischen Differentialgleichungen
Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrCharakteristikenmethode im Beispiel
Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)
MehrKapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen
Kapitel III Stetige Funktionen 14 Stetigkeit und Rechenregeln für stetige Funktionen 15 Hauptsätze über stetige Funktionen 16 Konvergenz von Funktionen 17 Logarithmus und allgemeine Potenz C 1 14 Stetigkeit
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
MehrÜbungsaufgaben zu Partielle Differentialgleichungen Blatt III vom
Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R
MehrMusterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 3 Unterschrift der Kandidatin/des Kandidaten 4 TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik
MehrAnalysis I - Stetige Funktionen
Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt
Mehr2. Lagrange-Gleichungen
2. Lagrange-Gleichungen Mit dem Prinzip der virtuellen Leistung lassen sich die Bewegungsgleichungen für komplexe Systeme einfach aufstellen. Aus dem Prinzip der virtuellen Leistung lassen sich die Lagrange-Gleichungen
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
MehrEinführung in die Volkswirtschaftslehre
Einführung in die Volkswirtschaftslehre Übung 1: Mathematische Analyseinstrumente Dipl.-Volksw. J.-E.Wesselhöft/ Dipl.-Volksw. J.Freese Bachelor Modul Volkswirtschaftliche Analyse (WS-14-V-03) HT 2009
MehrÜbungen zu Partielle Differentialgleichungen, WS 2016
Übungen zu Partielle Differentialgleichungen, WS 2016 Ulisse Stefanelli 16. Januar 2017 1 Beispiele 1. Betrachten Sie die Beispiele von nichtlinearen PDG und Systemen, die wir im Kurs diskutiert haben,
MehrOutline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
MehrTrennung der Variablen, Aufgaben, Teil 1
Trennung der Variablen, Aufgaben, Teil -E -E Trennung der Variablen Die Differenzialgleichung. Ordnung mit getrennten Variablen hat die Gestalt f ( y) dy = g (x) dx Satz: Sei f (y) im Intervall I und g
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
MehrOptimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme
Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
Mehr5 Potenzreihenansatz und spezielle Funktionen
5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
MehrDefinition 1.1 (Wirkung) Wir wollen die Kurvenverläufe x(t) finden, die das Funktional
Christina Schindler Karolina Stoiber Ferienkurs Analysis für Physiker SS 13 A 1 Variationsrechnung 1.1 Lagrange. Art Wir führen die Überlegungen von gestern fort und wollen nun die Lagrangegleichungen.
MehrMathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation
Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen
Mehr11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
Mehr8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
Mehr1. Übungsblatt Aufgaben mit Lösungen
. Übungsblatt Aufgaben mit Lösungen Aufgabe : Sei I R ein Intervall. Geben Sie Beispiele für Differentialgleichungen für Funktionen y = y in I mit den folgenden Eigenschaften an: Beispiel separabel, nicht
MehrAbbildung 5.1: stabile und instabile Ruhelagen
Kapitel 5 Stabilität Eine intuitive Vorstellung vom Konzept der Stabilität vermitteln die in Abb. 5.1 dargestellten Situationen. Eine Kugel rollt unter dem Einfluss von Gravitation und Reibung auf einer
MehrLogische und funktionale Programmierung
Logische und funktionale Programmierung Vorlesung 2: Prädikatenkalkül erster Stufe Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 14. Oktober 2016 1/38 DIE INTERPRETATION
MehrInhaltsverzeichnis. 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6
1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6 Teil I Statische Optimierung 2 Allgemeine Problemstellung der statischen
MehrSattelpunkt-Interpretation
Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal
MehrÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS
ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung
Mehrν und λ ausgedrückt in Energie E und Impuls p
phys4.011 Page 1 8.3 Die Schrödinger-Gleichung die grundlegende Gleichung der Quantenmechanik (in den bis jetzt diskutierten Fällen) eine Wellengleichung für Materiewellen (gilt aber auch allgemeiner)
MehrAnalysis I. 4. Beispielklausur mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein
MehrKonvexe Funktionen und Legendre-Transformation
Konvexe Funktionen und Legendre-Transformation Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x, y auch stets deren Verbindungsstrecke xy = {x +t xy 0 t 1} = {(1 t)x +ty 0 t 1} enthält.
Mehr4.7 Der Taylorsche Satz
288 4 Differenziation 4.7 Der Taylorsche Satz Die Differenzierbarkeit, also die Existenz der ersten Ableitung einer Funktion, erlaubt bekanntlich, diese Funktion lokal durch eine affine Funktion näherungsweise
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 5
Technische Universität München Zentrum Mathematik Mathematik Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 5 Hausaufgaben Aufgabe 5. Bestimmen Sie folgende Grenzwerte. Benutzen
MehrMusterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die
MehrDieses Vielfach hängt ab von der Form der Nutzenfunktion. Man bezeichnet dies auch als Arrow-Pratt Koeffizient.
Die Riskoprämie ergibt sich also als ein Vielfaches der Varianz der zugrundeliegenden Unsicherheit Dieses Vielfach hängt ab von der Form der Nutzenfunktion. Man bezeichnet dies auch als Arrow-Pratt Koeffizient.
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 5: Eindimensionale Nichtlineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Optimierung des Rohrleitungsdurchmessers für den
MehrGewöhnliche Dierentialgleichungen
Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat
Mehr4.1. Grundlegende Definitionen. Elemente der Analysis I Kapitel 4: Funktionen einer Variablen. 4.2 Graphen von Funktionen
4.1. Grundlegende Definitionen Elemente der Analysis I Kapitel 4: Funktionen einer Variablen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 22./29. November 2010 http://www.mathematik.uni-trier.de/
MehrEntwurf robuster Regelungen
Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler
MehrMathematik I. Vorlesung 7. Folgen in einem angeordneten Körper
Prof. Dr. H. Brenner Osnabrück WS 009/010 Mathematik I Vorlesung 7 Folgen in einem angeordneten Körper Wir beginnen mit einem motivierenden Beispiel. Beispiel 7.1. Wir wollen die Quadratwurzel einer natürlichen
MehrMathematik in der Biologie
Erich Bohl Mathematik in der Biologie 4., vollständig überarbeitete und erweiterte Auflage Mit 65 Abbildungen und 16 Tabellen ^J Springer Inhaltsverzeichnis Warum verwendet ein Biologe eigentlich Mathematik?
MehrDifferentialgleichungen. Aufgaben mit Lösungen. Jörg Gayler, Lubov Vassilevskaya
Differentialgleichungen Aufgaben mit Lösungen Jörg Gayler, Lubov Vassilevskaya ii Inhaltsverzeichnis. Tabelle unbestimmter Integrale............................... iii.. Integrale mit Eponentialfunktionen........................
MehrWellen und wandernde Wellen Ähnlichkeitslösungen. Crashkurs PDG anhand von Beispielen. Wellen
Wellen Crashkurs PDG anhand von Beispielen Eine Welle ist ein erkennbares Signal, welches innerhalb eines Mediums von einer Seite zur anderen übertragen wird, mit einer erkennbaren Ausbreitungsgeschwindigkeit.
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
MehrAusarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
MehrDefinition 3.1: Ein Differentialgleichungssystem 1. Ordnung
Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt
MehrReelle Zahlen, Gleichungen und Ungleichungen
9 2. Vorlesung Reelle Zahlen, Gleichungen und Ungleichungen 4 Zahlenmengen und der Körper der reellen Zahlen 4.1 Zahlenmengen * Die Menge der natürlichen Zahlen N = {0,1,2,3,...}. * Die Menge der ganzen
MehrHinweise vor Beginn der Bearbeitung
Dynamische Methoden der VWL - Nacholklausur im Sommersemester 016 Seite 1 Bachelor-Kursprüfung Methoden der VWL Klausurteil Dynamische Methoden der VWL Sommersemester 016 0.08.016 Bitte gut leserlich ausfüllen!
Mehr4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9
Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )
MehrKapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
Mehr5.10. Mehrdimensionale Extrema und Sattelpunkte
5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(
MehrDiplomarbeit. Nadja Balzer. Betreuer: Prof. Dr. H. Maurer. Westfälische Wilhelms-Universität Münster
Westfälische Wilhelms-Universität Münster Institut für numerische und instrumentelle Mathematik Diplomarbeit Optimale Steuerung ökonomischer Prozesse am Beispiel eines komplexen Unternehmensmodells mit
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
Mehr11 Logarithmus und allgemeine Potenzen
Logarithmus und allgemeine Potenzen Bevor wir uns mit den Eigenschaften von Umkehrfunktionen, und insbesondere mit der Umkehrfunktion der Eponentialfunktion ep : R R + beschäftigen, erinnern wir an den
Mehr2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n
2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n f ist in dem Fall ein Weg in R n. Das Bild f(t) des Weges wird als Kurve
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
Mehr48 Symplektische Geometrie und Klassische Mechanik
48 Symplektische Geometrie und Klassische Mechanik Zusammenfassung Zum Schluss der Vorlesung gehen wir noch auf eine geometrische Struktur ein, die wie die euklidische oder die Minkowski-Struktur im Rahmen
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mehr1 Axiomatische Charakterisierung der reellen. 3 Die natürlichen, die ganzen und die rationalen. 4 Das Vollständigkeitsaxiom und irrationale
Kapitel I Reelle Zahlen 1 Axiomatische Charakterisierung der reellen Zahlen R 2 Angeordnete Körper 3 Die natürlichen, die ganzen und die rationalen Zahlen 4 Das Vollständigkeitsaxiom und irrationale Zahlen
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
MehrPolynominterpolation
Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses
MehrTopologische Begriffe
Kapitel 3 Topologische Begriffe 3.1 Inneres, Rand und Abschluss von Mengen Definition (innerer Punkt und Inneres). Sei (V, ) ein normierter Raum über K, und sei M V eine Menge. Ein Vektor v M heißt innerer
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrExtrema mit Nebenbedingungen
Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrFlüsse, Fixpunkte, Stabilität
1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher
MehrDifferenzengleichungen. und Polynome
Lineare Differenzengleichungen und Polynome Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-600 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung Mit linearen Differenzengleichungen
MehrMathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
Mehr3. Zusammenhang. 22 Andreas Gathmann
22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept
Mehr2. Spezielle anwendungsrelevante Funktionen
2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
Mehr