Optimale Steuerung eines mechatronischen. Systems mit Coulomb-Reibung. und Zustandsbeschränkungen

Größe: px
Ab Seite anzeigen:

Download "Optimale Steuerung eines mechatronischen. Systems mit Coulomb-Reibung. und Zustandsbeschränkungen"

Transkript

1 Westfälische Wilhelms- Universität zu Münster Diplomarbeit Optimale Steuerung eines mechatronischen Systems mit Coulomb-Reibung und Zustandsbeschränkungen Bahne Christiansen 17. April 27 Themensteller und Betreuer: Prof. Dr. Helmut Maurer Institut für Numerische und Angewandte Mathematik Fachbereich Mathematik und Informatik Westfälische Wilhelms - Universität Münster

2

3 Optimale Steuerung eines mechatronischen Modells mit Coulomb-Reibung und Zustandsbeschränkungen Bahne Christiansen

4

5 Vorwort In vielen verschiedenen Anwendungsgebieten aus den Naturwissenschaften, dem Ingenieurswesen oder auch den Wirtschaftswissenschaften lassen sich reale Abläufe sehr präzise mithilfe eines mathematischen Modells beschreiben. Ein solches Modell besteht dabei aus einer Menge von Vorschriften, Gleichungen und Ungleichungen, die jeweils einen gewissen Teilaspekt des Gesamtproblems mathematisch greifbar werden lassen, d.h. ihn berechenbar machen. In der Regel werden das Zusammenwirken und die gegenseitige Beeinflussung unterschiedlicher Komponenten, die in dem Modell berücksichtigt werden, nicht bezüglich einer Momentaufnahme sondern über einen längeren Zeitraum hinweg untersucht. Eine solche kontinuierliche Dynamik lässt sich durch ein System von Differentialgleichungen beschrieben. Die Theorie optimaler Steuerprozesse beschäftigt sich mit Modellen, auf deren Ablauf sich in bestimmter Weise einwirken lässt. Man sagt, man kann den Prozess steuern. Diese Steuerung erfolgt dabei nicht ziellos sondern stets mit der Vorgabe, einen für die Problemstellung spezifischen optimalen Nutzen zu erreichen. Die Zielsetzung wird formal durch ein Leistungsmaß präzisiert, welches es zu minimieren oder maximieren gilt. Bei einem optimalen Steuerprozess wird das System zu jedem Zeitpunkt durch einen Zustand beschrieben, mit welchem alle zeitabhängigen Größen des Modells durch numerische Werten quantifiziert werden. Die Dynamik des Systems beschreibt die kontinuierliche Änderung des Zustands x und die Einflussnahme seitens der Steuerung u durch ein Differentialgleichungssystem der Form ẋ = f(x,u). Von dieser Dynamik eines Steuerprozesses wird üblicherweise gefordert, dass die Funktion f in jedem Zeitpunkt zumindest stetig sein sollte. Ist diese Forderung jedoch durch die realitätsnahe Modellierung nicht zu erfüllen, so führt dies i

6 auf die Verwendung sogenannter Multiprozesse, die eine Verallgemeinerung des standardmäßigen optimalen Steuerprozesses darstellen. Bei einem Multiprozess wird das gesamte Problem in mehrere zeitliche Abschnitte untergliedert und auf jedem der Teilabschnitte ein eigenständiger Steuerprozess mit individueller Dynamik und Zielfunktional formuliert. An den Nahtstellen werden die verschiedenen Teilprozesse durch Bedingungen an den Zustand miteinander verknüpft. Des Weiteren ergibt sich aus dem realen Prozess oft, dass die Zustandskomponenten nicht beliebige Werte annehmen können, sondern auf einen bestimmten Bereich beschränkt sind. Daher führt man sogenannte reine Zustandsbeschränkungen ein, die dafür sorgen, dass sich der Zustand im Laufe des Prozesses durch die Dynamik nicht außerhalb des zulässigen Wertebereiches bewegt. In Kapitel 1 werde ich zunächst die grundlegenden Begriffe zur Formulierung eines Steuerprozesses in der Standardform zusammenstellen. Anschließend wird die Transformierbarkeit zwischen verschiedenen Formulierungen optimaler Steuerprozesse erläutert, die es einem ermöglicht, das Modell auf eine für die jeweilige Anwendung günstige Form zu übertragen. Schließlich werden mit dem wohl bedeutendsten Resultat der Theorie, dem Minimumprinzip von Pontryagin, notwendige Bedingungen für die Optimalität einer Lösung präsentiert. Da in dem von mir behandelten mechatronischen Modell je nach Wahl des Zielfunktionals die Steuerung linear oder quadratisch in den Prozess eingeht, wird anschließend auf die Besonderheiten und Unterschiede dieser Fälle eingegangen. Kapitel 2 handelt von Steuerprozessen mit reinen Zustandsbeschränkungen. Hier werden zunächst wieder einige wichtige Begriffe wie die Ordnung einer solchen Restriktion definiert, ehe eine erweiterte Version des Minimumprinzips vorgestellt wird. Daraufhin werden die Besonderheiten bei zustandsbeschränkten Prozessen mit linear eingehender Steuerung erklärt. Im nächsten Kapitel wird mit den optimalen Multiprozessen eine Verallgemeinerung des Standardmodells vorgestellt. Wie bereits erwähnt ist die Idee bei Multiprozessen eine Untergliederung des betrachteten Zeitintervalls und eine abschnittsweise Definition der Systemdynamik (und ggf. sogar des Zielfunktional, was jedoch in dieser Arbeit nicht zum tragen kommt). Es wird gezeigt, wie ii

7 sich ein Multiprozess durch Aufstockung der beteiligten Komponenten (Zustand, Steuerung, Dynamik, etc.) auf einen Steuerprozess ohne Unterteilung des Zeitintervalls zurückführen lässt. Dieses Vorgehen ermöglicht die Anwendung des Minimumprinzips auf das transformierte single stage problem. Ein Modell enthält meistens eine Vielzahl von Parametern, mit denen spezielle Systemeigenschaften quantifiziert werden. Nun ist es in der Realität unter Umständen erforderlich, diese Parameter auf Basis von physikalischen Messungen, Hochrechnungen oder gar Schätzungen festzulegen. Dies birgt natürlich ein gewisses Maß an Ungenauigkeiten, die sich auf die Lösung des Steuerprozesses fortsetzen. Kapitel 4 befasst sich mit der Sensitivitätsanalyse, welche der Fragestellung nachgeht, wie empfindlich die optimale Lösung eines Problems auf kleine Störungen in den Systemparametern reagiert. Die Resultate dieser Analyse sind insbesondere bei der Echtzeit-Optimierung von großem Interesse. Im 5. Kapitel wird schließlich die vorgestellte Theorie auf ein mechatronisches Modell angewendet. Das Modell beschreibt die elektro-mechanischen Vorgänge beim Betrieb eines Tauchspulmotors. Dieser Motor dient beispielsweise als Antriebseinheit in der Lautsprechertechnik (daher auch die Bezeichnung voice coil motor). Die physikalischen Rahmenbedingungen machen es gegebenfalls erforderlich, Zustandsbeschränkungen in das Modell zu integrieren. Ohne an dieser Stelle bereits auf Details vorzugreifen, sei noch auf die entstehende Coulombsche Reibung hingewiesen, die Unstetigkeiten in der Dynamik zur Folge hat und auf die Formulierung eines Multiprozesses führt. Anhand eines ausgewählten Parameters werden exemplarisch die Sensitivitäten diskutiert. Zur Berechnung der Sensitivitätsdifferentiale wurde die FORTRAN-Routine NUDOCCCS von Prof. Dr. Büskens verwendet. Die meisten numerischen Ergebnisse wurden durch Programme in der mathematischen Modellierungssprache AMPL in Verbindung mit dem Optimierungssolver IPOPT erzielt. Zahlreiche Graphiken dienen der Veranschaulichung des Prozessverlaufs. Sämtliche Programme wurden von mir selbst geschrieben und liegen dieser Arbeit auf CD-ROM bei. iii

8 iv

9 Abbildungsverzeichnis 1.1 Beispiel einer Schaltfunktion σ und Steuerung u mit singulärem Teilstück u sing Beispiel einer optimalen Steuerung eines regulären Hamilton- Problems mit Steuerbeschränkung U = [u min,u max ] Verlauf einer Trajektorie mit reinen Zustandsbeschränkungen Unterteilung t < t 1, < t N des Intervalls [,T] Prinzipieller Aufbau eines Lautsprechers Einsatz im Werkzeugmaschinenbereich Einsatz im Werkzeugmaschinenbereich Modellaufbau zur Simulation über MATLAB R /Simulink R (Labor der AG Mechatronik, FH Gießen-Friedberg) Prinzipskizze des Tauchspulmotors, [ZIRN 26] Physikalisches Modell des Tauchspulmotors x 1 (t) (zeitoptimal, u max = 2) v 1 (t) (zeitoptimal, u max = 2) x 2 (t) (zeitoptimal, u max = 2) v 2 (t) (zeitoptimal, u max = 2) I(t) (zeitoptimal, u max = 2) u(t) (zeitoptimal, u max = 2) x 1 (t) (zeitoptimal, u max = 3) v 1 (t) (zeitoptimal, u max = 3) x 2 (t) (zeitoptimal, u max = 3) v 2 (t) (zeitoptimal, u max = 3) I(t) (zeitoptimal, u max = 3) u(t) (zeitoptimal, u max = 3) Veranschaulichung des Schaltgesetzes (5.33) v

10 Abbildungsverzeichnis 5.2 v 1 (t) (zeitoptimal, u max = 3, ZB c v =.1) v 1 (t) v 2 (t) (zeitoptimal, u max = 3) v 1 (t) v 2 (t) (zeitoptimal, u max = 3, ZB c v =.1) λ 5 (t) (zeitoptimal, u max = 3, ZB c v =.1) u(t) (zeitoptimal, u max = 3, ZB c v =.1) µ 1 (t) (zeitoptimal, u max = 3, ZB c v =.1) µ 2 (t) (zeitoptimal, u max = 3, ZB c v =.1) λ 1 (t) (zeitoptimal, u max = 3, ZB c v =.1) λ 2 (t) (zeitoptimal, u max = 3, ZB c v =.1) λ 3 (t) (zeitoptimal, u max = 3, ZB c v =.1) λ 4 (t) (zeitoptimal, u max = 3, ZB c v =.1) x 1 (t) (energieminimal, u max = 3) v 1 (t) (energieminimal, u max = 3) x 2 (t) (energieminimal, u max = 3) v 2 (t) (energieminimal, u max = 3) I(t) (energieminimal, u max = 3) u(t) (energieminimal, u max = 3) u(t) (energieminimal, u max = 3, ZB c v =.1) d d m 2 x 1 (t) (energieminimal, u max = 3) d d m 2 v 1 (t) (energieminimal, u max = 3) d d m 2 x 2 (t) (energieminimal, u max = 3) d d m 2 v 2 (t) (energieminimal, u max = 3) d d m 2 I(t) (energieminimal, u max = 3) d d m 2 u(t) (energieminimal, u max = 3) vi

11 Inhaltsverzeichnis Vorwort Abbildungsverzeichnis Inhaltverzeichnis i iv vi 1 Einführung in die Theorie optimaler Steuerprozesse Grundbegriffe zur Formulierung eines optimalen Steuerprozesses Äquivalente Formulierungen eines Steuerprozesses Transformation eines Bolza- auf ein Mayer-Problem Transformation einer freien Endzeit T auf die feste Endzeit = Transformation eines nichtautonomen Problems auf ein autonomes Problem Das Minimumprinzip von Pontryagin Steuerprozesse mit linear auftretender Steuerung Zeitoptimale lineare Steuerprozesse: Steuerbarkeit und Kalmann-Matrix Auswertung der Minimumbedingung Transformation auf ein finites Optimierungsproblem Singuläre Steuerungen Steuerprozesse mit regulärer Hamilton-Funktion Fall: U R n offen Fall: U R m kompakt Optimale Steuerprozesse mit reinen Zustandsbeschränkungen Grundlegende Begriffe Notwendige und hinreichende Optimalitätsbedingungen Zustandsbeschränkungen bei linear eingehender Steuerung vii

12 Inhaltsverzeichnis 3 Optimale Steuerung von Multiprozessen Problemformulierung eines Multiprozesses Notwendige Optimalitätsbedingungen erster Ordnung Grundlagen der Sensitivitätsanalyse Das parametrische Standardproblem der nichtlinearen Optimierung Sensitivitätssatz und Sensitivitätsdifferentiale Anwendung auf Optimale Steuerprozesse Die optimale Steuerung eines mechatronischen Modells Motivation Modellbeschreibung Die zeitoptimale Steuerung Auswertung des Minimumprinzips Einführung von Zustandsbeschränkungen Formulierung eines Multiprozesses Überprüfung der hinreichenden Optimalitätsbedingung und Berechnung einiger Sensitivitäten durch NUDOCCCS Die energieminimale Steuerung Regularität der Hamilton-Funktion Prüfung der hinreichenden Optimalitätsbedingungen Interpretation der Sensitivitätsdifferentiale Abschließende Bemerkungen Danksagung A Sourcecode des AMPL/IPOPT - Programms zur zeitoptimalen Steuerung mit u max = 2 95 B Sourcecode des NUDOCCCS - Programms zur energieoptimalen Steuerung mit u max = 3 99 C Eidesstattliche Erklärung 17 Literaturverzeichnis 19 viii

13 1 Einführung in die Theorie optimaler Steuerprozesse Zu Beginn meiner Arbeit stelle ich die grundlegenden Begriffe, Definitionen und Sätze zusammen, die es ermöglichen, einen optimalen Steuerprozeß zu formulieren und welche die Basis der später folgenden Theorie darstellen. 1.1 Grundbegriffe zur Formulierung eines optimalen Steuerprozesses Man betrachtet ein zeitabhängiges System, dessen Zustand x zum Zeitpunkt t durch einen Zustandsvektor x(t) = (x 1 (t),x 2 (t),...,x n (t)) t R n beschrieben wird. Hierbei variiert die Zeitvariable t in einem Intervall [t,t], wobei man ohne Einschränkung die Anfangszeit t = setzen kann. Die Endzeit T ist entweder fest vorgegeben oder frei. Nun hat man die Möglichkeit, von außen eine gewisse Steuerung dieses Systems durchzuführen. Dazu dient die Steuerung u(t), welche wieder als vektorwertig angesehen wird: u(t) = (u 1 (t),u 2 (t),...,u m (t)) t R m. Die Beeinflussung des Zustands x(t) durch die Steuerung u(t) erfolgt gemäß eines Differentialgleichungssystems erster Ordnung, der sogenannten Dynamik. Definition 1.1 (Dynamik des Systems) Die Dynamik eines optimalen Steuerprozesses beschreibt die Wirkung der Steuerung u(t) auf die zeitliche Änderung des Zustands x(t) und ist gegeben durch ein System von n gewöhnlichen Differentialgleichungen (DGL) erster Ordnung ẋ(t) = d x(t) = f(t,x(t),u(t)), t [,T] (1.1) dt Hierbei sei f : [,T] R n R m R n eine stetige und bezüglich x R n und u R m stetig partiell differenzierbare Funktion, d.h. die Ableitungen f x ((n n)-matrix) und f u ((n m)-matrix) seien stetig. 1

14 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Bemerkung 1.1 An dieser Stelle sei bereits angemerkt, dass der Einfachheit halber die explizite Angabe der Zeitvariablen t als Funktionsargument des Zustands x(t) oder der Steuerung u(t) oft entfällt, wenn dies aus dem Zusammenhang offensichtlich ist; somit schreibt man (1.1) meist kurz als ẋ = f(t,x,u). Definition 1.2 (Lösung der DGL) Seien x : [,T] R n eine stetige sowie stückweise stetig differenzierbare und u : [,T] R m eine stückweise stetige Funktion. Das Funktionenpaar (x, u) heißt Lösung der Differentialgleichung (1.1), wenn für alle Stetigkeitsstellen t [, T] von u gilt ẋ(t) = d x(t) = f(t,x(t),u(t)) dt Ist (x,u) eine Lösung von (1.1), so nennt man x : [,T] R n auch Trajektorie. Aus der mathematischen Modellierung des zu behandelnden Problems ergibt sich in der Regel, dass der Zustand x(t) zu bestimmten Zeitpunkten t i, i =,...,N mit t < t 1 <... < t N = T gewissen Restriktionen unterliegt, die sich formulieren lassen als ϕ i (x(t i )) =, i =,...,N, oder allgemeiner durch eine Gleichung Φ(x(t ),x(t 1 ),...,x(t N )) =. Wir beschränken uns zunächst auf den Fall N = 1. Steuerprozesse mit den allgemeineren Zustandsrestriktionen (N > 1) lassen sich durch Bildung eines erweiterten Super- Zustandsvektors auf Prozesse mit einfachen Randbedingungen (N = 1) zurückführen. Diesbezüglich verweise ich auf das Kapitel 3 über Multiprozesse. Definition 1.3 (Randbedingungen für den Zustand) Seien M R n und M 1 R n nichtleere, abgeschlossene Mengen. Die Bedingungen x() M, x(t) M 1 (1.2) für den Anfangszustand x() und den Endzustand x(t) heißen Randbedingungen des Zustands. In praktischen Anwendungen sind die Mengen M und M 1 oft gegeben als gleichungsdefinierte Flächen M x() x(t) x(t) M = {x R n ϕ(x) = }, M 1 = {x R n ψ(x) = } mit stetig differenzierbaren Funktionen ϕ : R n R s, s n, und ψ : R n R r, r n, s + r 2n. M 1 x : [,T] R n erfüllt demnach die 2

15 1.1: Grundbegriffe zur Formulierung eines optimalen Steuerprozesses Randbedingungen (1.2), falls gilt ϕ(x()) =, ψ(x(t)) =. (1.3) Der Fall s = bedeutet M = R n, d.h. es sind keine Bedingungen für x() gegeben (freier Anfangszustand). Der Fall r = bedeutet analog M 1 = R n, d.h. es sind keine Bedingungen für x(t) gegeben (freier Endzustand). Etwas allgemeiner als diese separierten Randbedingungen ist die Restriktion ϕ(x(),x(t)) =, (1.4) wobei ϕ : R n R n R s, s 2n eine stetig differenzierbare Funktion sei. Ein in den Anwendungen sehr häufig auftretender Spezialfall der Randbedingungen (1.2) sind die Standard-Randbedingungen: x() = x, x R n fest vorgegeben, ψ(x(t)) =. (1.5) In der Formulierung (1.3) gilt hierbei folglich ϕ(x) = x x. Ein weiterer Baustein eines optimalen Steuerprozesses ist der Wertebereich U R m für die Steuerung u. Definition 1.4 (Steuerbereich) Die nichtleere, konvexe und abgeschlossene Menge U R n wird als Steuerbereich bezeichnet und beschreibt die zulässige Wertemenge für den Steuervektor u(t): u(t) U, t [,T]. (1.6) Im Weiteren sei vorausgesetzt, dass auch das topologische Innere int U des Steuerbereichs U nichtleer ist. Definition 1.5 (Zulässige Lösung eines Steuerprozesses) Seien x : [,T] R n und u : [,T] R m wie in Definition 1.2 gegeben. Das Funktionenpaar (x, u) heißt zulässige Lösung zur Endzeit T >, wenn die Bedingungen (1.1),(1.2) und (1.6) erfüllt sind. Um unter einer Vielzahl von zulässigen Lösungen eine möglichst gute Lösung finden zu können, bedarf es einer Beschreibung der Zielsetzung dieses Steuerprozesses. Hierzu dient das Ziel- oder Kostenfunktional, welches ein zu optimierendes Leistungsmaß definiert. 3

16 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Bemerkung 1.2 Optimieren kann minimieren oder auch maximieren bedeuten. Da ein lokales Maximum eines reellwertigen Funktionals F ein lokales Minimum von ( F) ist, kann man sich darauf beschränken, den Begriff Optimierung als Minimierung aufzufassen. Definition 1.6 (Zielfunktional) Seien g : R n R stetig differenzierbar und f : [,T] R n R m R, (t,x,u) f (t,x,u), stetig und stetig partiell differenzierbar bezüglich x und u. Das Funktional F(x,u) := g(x(t)) + T f (t,x(t),u(t))dt (1.7) heißt Ziel- oder Kostenfunktional. Das Zielfunktional besteht also in dieser allgemeinen Form aus zwei Komponenten: einer Funktion g, die den Endzustand x(t) bewertet, und einem Integral, durch welches eine Wertung/Gewichtung entlang der gesamten Trajektorie (x,u) ermöglicht wird. Eine Verallgemeinerung von (1.7) stellt ein Zielfunktional der Form F(x,u) := g(x(),x(t)) + T f (t,x(t),u(t))dt dar, bei welchem also durch die Funktion g : R n R n R neben dem Endzustand x(t) auch der Anfangszustand x() Einfluss auf den Wert des Funktionals ausübt. In der praktischen Anwendung ist dies allerdings der Ausnahmefall. Nun haben wir alle Bausteine eines optimalen Steuerprozesses zusammengetragen, um diesen in kompakter Schreibweise formulieren zu können. Definition 1.7 (Optimaler Steuerprozess) Ein Problem der Form T Minimiere F(x,u) = g(x(t)) + f (t,x,u)dt unter ẋ = f(t,x,u), t T, ϕ(x(),x(t)) =, u(t) U, t T. (1.8) nennt man einen optimalen Steuerprozess. Einige Anmerkungen zu (1.8): Die obige Form (1.8) eines Steuerprozesses, bei der im Zielfunktional sowohl die Funktion g als auch das Integral vorkommen, nennt man Bolza- Form. Weitere (äquivalente) Formen werden im nachfolgenden Abschnitt beschrieben. 4

17 1.1: Grundbegriffe zur Formulierung eines optimalen Steuerprozesses In dieser kompakten Schreibweise entfällt meist die explizite Angabe des Zeitarguments t, vgl. Bemerkung 1.1. Hat man es mit dem Zielfunktional F(x,u) = T (d.h. g, f 1) zu tun - was bedeutet, dass die Endzeit T minimiert werden soll - so spricht man von zeitoptimalen Steuerprozessen. Bei linearen Steuerprozessen ist die Funktion f linear in x und u, f(t,x,u) = A(t)x + B(t)u, mit stückweise stetigen Matrixfunktionen A : [,T] R n n und B : [,T] R n m. (1.8) heißt autonom, wenn t nicht explizit in f und f vorkommt. Nichtautonome Prozesse lassen sich stets durch Hinzunahme einer zusätzlichen Zustandsvariable auf autonome Prozesse zurückführen (siehe Abschnitt 1.2). Bei dem Lösen eines solchen Steuerprozesses versucht man nun, eine Steuerung u zu bestimmen, die mit der zugehörigen Zustandstrajektorie x ein zulässiges Funktionenpaar (x, u) bildet und das gegebene Zielfunktional (1.7) minimiert. Diese Zielsetzung führt auf die naheliegende Definition einer optimalen Lösung. Definition 1.8 (Globale Minimalstelle) 1. Feste Endzeit T > : Ein zulässiges Funktionenpaar (x,u ) zur Endzeit T heißt optimale Lösung von (1.8), wenn F(x,u ) F(x,u) für alle zulässigen Paare (x,u) zur Endzeit T gilt. 2. Freie Endzeit T > : Ein zulässiges Funktionenpaar (x,u ) zur Endzeit T Lösung von (1.8), wenn heißt optimale F(x,u ) F(x,u) für alle zulässigen Paare (x,u) zu einer beliebigen Endzeit T > gilt. 5

18 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse 1.2 Äquivalente Formulierungen eines Steuerprozesses Wie so oft in der Mathematik ist man auch auf dem Feld der optimalen Steuerungstheorie darum bemüht, verschiedene Darstellungsformen ein und desselben Phänomens zu vereinheitlichen und auf eine möglichst kompakte Form zu reduzieren. Für die Theorie der optimalen Steuerprozesse heißt dies, dass unterschiedliche Formulierungen eines Steuerprozesses transformierbar sind, und man so eine sehr einfache Form erreichen kann, bei der z.b. das Zielfunktional (1.7) nur aus der Funktion g besteht. Die gebräuchlichsten Varianten eines Steuerprozesses sind an dieser Stelle aufgeführt und unterscheiden sich lediglich durch die Struktur des Zielfunktionals. Die Nebenbedingungen (1.1), (1.2) und (1.6) sind formal die gleichen, allerdings können sich Definitions- bzw. Wertebereiche der auftretenden Funktionen in der Dimension unterscheiden. Definition Das Problem (1.8) in der Form von Definition 1.7 mit einem Zielfunktional heißt Bolza-Problem. T F(x,u) = g(x(t)) + f (t,x,u)dt 2. Das Problem (1.8) mit einem Zielfunktional F(x,u) = T f (t,x,u)dt, also mit g =, heißt Lagrange-Problem. 3. Das Problem (1.8) mit einem Zielfunktional F(x,u) = g(x(t)), also mit f =, heißt Mayer-Problem Transformation eines Bolza- auf ein Mayer-Problem Gegeben sei ein optimaler Steuerprozess in der Bolza-Form (1.8). Wir wollen nun aus dem Zielfunktional das Integral eliminieren. Die Idee hierbei ist, durch die Hinzunahme einer künstlichen Zustandsvariablen den Integralanteil 6

19 1.2: Äquivalente Formulierungen eines Steuerprozesses des Zielfunktionals als Nebenbedingung in das Differentialgleichungssystem einzugliedern. Man definiere dazu eine neue Zustandsvariable x (t) := t f (s,x(s),u(s))ds. Nach Konstruktion genügt x der Anfangswertaufgabe ẋ = f (t,x,u), x () =. Durch Aufstockung des alten Zustandsvektors x = (x 1,x 2,...,x n ) T R n mit der neu eingeführten Variablen x erhält man den vergrößerten Zustandsvektor 1 x := (x,x 1,x 2,...,x n ) T = (x,x T ) T R n+1. Analog erweitert man die Funktion F = (f 1,f 2,...,f n ) T durch f : f(t, x,u) := (f (t,x,u),f 1 (t,x,u),...,f n (t,x,u)) T. Nun setzt man ḡ( x(t)) := g(x(t)) + x (T) sowie ϕ( x(), x(t)) = ( x () ϕ(x(),x(t)) ) =. Dann ist (1.8) äquivalent zu dem Mayer-Problem: Minimiere unter ḡ( x(t)) x = f(t, x,u), ϕ( x(), x(t)) =, u(t) U. (1.9) Transformation einer freien Endzeit T auf die feste Endzeit T = 1 Wir betrachten wieder einen Steuerprozess in der allgemeinen Bolza-Form (1.8). Auch die Transformation von freier auf feste Endzeit basiert auf der Hinzunahme einer künstlichen Zustandsvariablen, und zwar der freien Endzeit selbst. 1 Die Wahl eines hochgestellten T als Notation für die Transponierung eines Vektors scheint auf den ersten Blick ungünstig wegen der häufigen Verwendung von T als Endzeit eines Steuerprozesses. Als Kompromissentscheidung wurde aber diese Schreibweise dem sonst üblichen vorgezogen, da zur Kennzeichnung einer optimalen Lösung dient. 7

20 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Zunächst führt man jedoch eine Zeittransformation durch gemäß t = s T, s 1, und betrachtet s [, 1] als neue Zeitvariable. Zustand und Steuerung operieren also jetzt auf dem Einheitsintervall entsprechend der Vereinbarung x(s) = x(s T) = x(t), ũ(s) = u(s T) = u(t). Differenziert man x nach s, erhält man als neue DGL d x ds = x = d x dt dt = f(s T, x(s),ũ(s)) T. ds Entsprechend ergibt sich das Zielfunktional bzgl. s [,1] : g(x(t)) + = g( x(1)) + T 1 f (t,x(t),u(t))dt T f (s T,x(s),u(s))ds. Die freie Endzeit T interpretiert man nun als neue Zustandsvariable x n+1 (s) := T, wobei formal der Anfangs- und Endzustand von x n+1 frei sind. Dies führt zu einem erweiterten Zustandsvektor ( ) x(s) x(s) = R n+1. x n+1 (s) Mit den Bezeichnungen ū(s) = ũ(s), ḡ( x(1)) = g( x(1)), ϕ( x(), x(1)) = ϕ( x(), x(1)), f (s, x,ū) = x n+1 f (s x n+1, x,ũ), ( xn+1 f(s x n+1, x,ũ) f(s, x,ū) = ), formuliert man das zu (1.8) äquivalente Steuerproblem mit fester Endzeit T = 1: Minimiere F( x,ū) := ḡ( x(1)) + 1 unter x(s) = f(s, x(s),ū(s)), ϕ( x(), x(1)) =, ū(t) U. f (s, x(s),ū(s))ds (1.1) 8

21 1.2: Äquivalente Formulierungen eines Steuerprozesses Transformation eines nichtautonomen Problems auf ein autonomes Problem Bei einem nichtautonomen Problem hängen die Funktionen f und/oder f explizit von der Zeitvariablen t ab. Um auf ein autonomes Problem zu kommen, müssen also Funktionen f und f konstruiert werden, in denen t nicht explizit vorkommt. Auch hier ist die Idee wieder die Hinzunahme einer neuen Zustandsvariablen x n+1 (t) = t. Offensichtlich genügt x n+1 der Anfangswertaufgabe ẋ n+1 = 1, x n+1 () =. Die Bezeichnungen für den autonomen Prozess lauten ähnlich zu denen in Abschnitt 1.2.2: x = f( x,u) = ϕ( x(), x(t)) = x 1. x n x n+1, ( f(xn+1,x,u) 1 ( ϕ(x(),x(t)) x n+1 () ), ) =, ḡ( x(t)) = g(x(t)), f ( x,u) = f (x n+1,x,u). Damit ergibt sich als äquivalente Formulierung von (1.8) das autonome Problem: Minimiere unter F( x,u) := ḡ( x(t)) + T x = f( x,u) ϕ( x(), x(t)) = f ( x,u)dt (1.11) u(t) U t [,T]. Folglich kann man jeden beliebigen optimalen Steuerprozess auf einen autonomen Prozess mit fester Endzeit in Mayer-Form zurückführen. Die Mayer- Form hat durch das einfache Zielfunktional g(x(t)) und der Behandlung 9

22 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse des Integralanteils als Bestandteil des Differentialgleichungssystems besonders bei der numerischen Berechnung von Steuerprozessen Vorteile. So habe auch ich bei den meisten Berechnungen für diese Arbeit mit der Modellierungssprache AMPL [FOURER 23] und der FORTRAN-Routine NUDOCCCS [BÜSKENS 1996] auf die Mayer-Form zurückgegriffen. 1.3 Notwendige Optimalitätsbedingungen: Das Minimumprinzip von Pontryagin Das wohl bedeutendste Resultat in der Theorie optimaler Steuerprozesse ist das sogenannte Minimumprinzip 2, welches in den 195er Jahren von der russischen Schule um Lev Semenovich Pontryagin entwickelt wurde und daher unter dem Namen Minimumprinzip von Pontryagin geläufig ist. Es beschreibt notwendige Bedingungen erster Ordnung für die Optimalität einer Lösung (x,u ) des Steuerproblem (1.8). Unter zusätzlichen Voraussetzungen (Konvexitätsannahmen) erhält man sogar hinreichende Optimalitätsbedingungen. Das Minimumprinzip spielt nicht nur in der Theorie eine zentrale Rolle, sondern bildet auch das Fundament für diverse numerische Lösungsalgorithmen. Zunächst stelle ich den Begriff der Hamilton-Funktion bereit, der zur Formulierung des Minimumprinzips benötigt wird. Definition 1.1 (Hamilton-Funktion) Gegeben sei ein optimaler Steuerprozess in der Form (1.8). Die diesem Prozess zugeordnete Funktion n H(t,x,λ,u) = λ f (t,x,u) + λf(t,x,u) = λ i f i (t,x,u), i= (1.12) λ R, λ R n Zeilenvektor, heißt Hamilton-Funktion. Die Komponenten λ i, i = 1,...,n, des Vektors λ R n heißen adjungierte Variablen. Die Argumente t, x, λ, u der Hamilton-Funktion sind als formale Variablen aufzufassen. Die Notation lässt jedoch bereits darauf schließen, dass man in die Hamilton-Funktion stets die zueinandergehörenden Werte (t, x(t), λ(t), u(t)) entlang einer Lösung des Steuerprozesses einsetzen wird, wenn das Paar (x, u) eine Lösung von (1.8) mit adjungierter Funktion λ ist. Die Variable λ wird 2 In der Literatur auch als Maximumprinzip zu finden, vgl. hierzu Bemerkung

23 1.3: Das Minimumprinzip von Pontryagin nicht als Argument der Hamilton-Funktion angesehen, da sie üblicherweise nur die Werte oder 1 annimmt, im normalen Fall gilt λ = 1. Satz 1.1 (Das Minimumprinzip von Pontryagin) Seien T und das Funktionenpaar (x,u ) : [,T ] R n U eine optimale Lösung von (1.8). Dann gibt es eine reelle Zahl λ, eine stetige und stückweise stetig differenzierbare Funktion λ : [,T ] R n und einen Mutiplikator ρ R r mit (λ,λ(t),ρ) für t [,T ], so dass die folgenden Aussagen gelten: (i) Für alle t [,T ] gilt die Minimumbedingung H(t,x (t),λ(t),u (t)) = min u U H(t,x (t),λ(t),u) (1.13) und die adjungierte Differentialgleichung 3 λ(t) = H x (t,x (t),λ(t),u (t)), (1.14) wobei diese Bedingungen an Unstetigkeitsstellen der optimalen Steuerung u links- bzw. rechtsseitig zu verstehen sind. (ii) Es gelten die Transversalitätsbedingungen 4 λ(t ) = (λ g + ρϕ)(x (),x (T )), (1.15) x e λ() = ρϕ(x (),x (T )), (1.16) x a wobei ϕ : R n R n R r, (x a,x e ) ϕ(x a,x e ). (iii) Im Falle einer freien Endzeit T gilt für die optimale Endzeit T H(T,x (T ),λ(t ),u (T )) =. (1.17) (iv) Für autonome Probleme mit H t = gilt mit t [,T ]. H(x (t),λ(t),u (t)) = const (1.18) 3 Das tiefgestellte x soll die partielle Ableitung der Hamilton-Funktion H nach x symbolisieren 4 Hängt die Funktion g aus dem Zielfunktional neben dem Endzustand x(t) auch vom Anfangszustand x() ab, d.h. g : R n R n R, (x a, x e) g(x a, x e), verallgemeinert sich die Transversalitätsbedingung (1.16) zu λ() = x a (λ g + ρϕ)(x (), x (T )). 11

24 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Einen Beweis dieses Satzes findet man in [PONTRYAGIN 1967]. Um nicht bei jedem Auftreten der Hamilton-Funktion H die etwas aufwändige Schreibweise aus dem Minimumprinzip 1.1 mitsamt allen Argumenten benutzen zu müssen, vereinbart man meist folgende abkürzende Notation: f [t] := f(t,x (t),u (t)), H [t] := H(t,x (t),λ(t),u (t)). Damit schreibt sich die adjungierte Differentialgleichung in Kurzform als λ(t) = H x [t]. Bei einem gegebenen Steuerproblem ist der Nachweis recht schwierig, welcher der beiden Fälle, (i) entartete Lösung mit λ = oder (ii) normale Lösung mit λ >, vorliegt. Liegen jedoch Randbedingungen des Typs fest gewählter Anfangszustand + freier Endzustand vor, so gibt folgendes Lemma Auskunft über λ. Lemma 1.1 Gegeben sei ein Steuerprozess (1.8) mit den Randbedingungen ϕ(x(),x(t)) = x() x, d.h. der Anfangszustand x() = x ist fest vorgegeben, während der Endzustand x(t) frei ist. Dann gilt λ >. Hat man sich von der Normalität der Lösung überzeugt, so kann man ruhigen Gewissens λ = 1 setzen, denn durch die Skalierung λ λ λ bleibt die Gültigkeit der Aussagen aus dem Minimumprinzip 1.1 erhalten. Wir wollen nun die Transversalitätsbedingungen am Spezialfall des in der Praxis häufig auftretenden Steuerprozesses mit Standard-Randbedingungen (1.5) x() = x, ψ(x(t)) =, ϕ : R n R r auswerten. Ferner hänge die Funktion g des Zielfunktionals nur vom Endzustand x(t) ab und es gelte λ = 1. Hier ist also ϕ(x(),x(t)) = ( x() x ψ(x(t)) ) = R n+r. Dementsprechend splitten wir den Multiplikator ρ R n+r aus dem Mimumprinzip 1.1 in die zwei Komponenten der Form (ρ,ρ) mit ρ R n und ρ R r. Die Transversalitätsbedingung (1.16) liefert in diesem Fall keine brauchbaren Informationen über λ(): λ() = x a (g + (ρ,ρ)ϕ)(x (),x (T )) = ρ R n. 12

25 1.3: Das Minimumprinzip von Pontryagin Für λ(t ) hingegen erhält man λ(t ) = (g + (ρ,ρ)ϕ)(x (),x (T )) x e = (g + ρψ)(x (T )). x e (1.19) Hieraus lässt sich eine geometrische Interpretation der Transversalitätsbedingung gewinnen: Stellt man (1.19) zu λ(t ) x e g(x (T )) = x e ρψ(x (T ), um, so erkennt man, dass im optimalen Endzeitpunkt T der Vektor λ(t ) x e g(x (T )) R n senkrecht auf der durch die Menge M = {x R n ψ(x) = } gegebenen Fläche steht und wegen {x R n ψ(x) = } M insbesondere auch orthogonal zu der Fläche ψ = ist (vgl. Skizze). Falls bei den Standard- Randbedingungen (1.5) die Endbedingung dadurch gegeben ist, dass gewisse Komponenten des Endzustands x*(t*) ψ x (x*(t*)) ψ(x)= x(t) fest gewählt und die übrigen Komponenten frei sind, d.h. es gilt (nach eventueller Umnumerierung) x 1 (T) c 1 ψ(x(t)) =. = x r (T) c r und somit g = g(x r+1,...,x n ), dann ergibt sich aus den Transversalitätsbedingungen λ i (T ) = (g + ρψ)(x (),x (T)) x i = ρ i, i = 1,...,r (leere Aussage), (1.2) λ i (T ) = (g + ρψ)(x (),x (T)) x i = g(x x r+1(t ),...,x n(t )), i = r + 1,...,n. (1.21) i In Abschnitt wird gezeigt, wie man (1.21) zum Aufstellen eines Randwertproblems zu Nutze macht. 13

26 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Unter stärkeren Voraussetzungen liefert das Minimumprinzip sogar hinreichende Optimalitätskriterien. Für diese benötigt man den Begriff der minimierten Hamilton-Funktion. Definition 1.11 (Minimierte Hamilton-Funktion) Die Funktion H (t,x,λ) := minh(t,x,λ,u) (1.22) u U nennt man die minimierte Hamilton-Funktion. Satz 1.2 (Hinreichende Optimalitätsbedingungen) Sei (x,u ) : [,T] R n U ein zulässiges Funktionenpaar für den Steuerprozess (1.8) mit den Standard-Randbedingungen (1.5) und der festen Endzeit T. Es existiere eine adjungierte Funktion λ : [,T] R n mit λ = 1 und ein Multiplikator ρ R r, so dass die Bedingungen des Minimumprinzips 1.1 erfüllt sind. Zusätzlich seien (i) ψ(x) affin-linear, (ii) g = g(x) konvex, (iii) H (t,x,λ(t)) konvex in x R n für alle t [,T]. Dann ist (x,u ) eine optimale Lösung von (1.8). 1.4 Steuerprozesse mit linear auftretender Steuerung: bang-bang und singuläre Steuerungen Je nachdem, wie die Steuervariable u im Problem (1.8) auftritt, unterscheidet man zwischen optimalen Steuerprozessen mit linear eingehender und solchen mit nichtlinear eingehender Steuerung. Man sagt, die Steuerung tritt linear in (1.8) auf, wenn der Integrand des Zielfunktionals und die Differentialgleichung der Dynamik affin-lineare Funktionen der Variablen u sind, d.h. f (x,u) = a (x) + b (x)u, f(x,u) = a(x) + b(x)u, (1.23) wobei a : R n R, b : R n R m (Zeilenvektor), a : R n R n, b : R n R n m stetig differenzierbare Funktionen sind (der Einfachheit halber wird von einem 14

27 1.4: Steuerprozesse mit linear auftretender Steuerung autonomen Prozess ausgegangen). Eine solche Unterscheidung ist sinnvoll hinsichtlich der verschiedenen Ansätze, mit welchen man ein vorliegendes Steuerproblem bearbeitet. Tritt die Steuerung linear auf, so besitzt die optimale Steuerung u typischerweise Unstetigkeitsstellen und nimmt meist Werte der Eckpunkte von dem konvexen und abgeschlossenen Steuerbereich U an. Diesem Phänomen wird im Folgenden nachgegangen. Dem stehen Steuerprozesse mit nichtlinear eingehender Steuerung gegenüber, die im nächsten Abschnitt 1.5 behandelt werden. Bei solchen Problemen ist die optimale Steuerung in der Regel stetig Zeitoptimale lineare Steuerprozesse: Steuerbarkeit und Kalmann-Matrix Zunächst werden lineare Steuerprozesse betrachtet. Die Dynamik des Systems sei gegeben durch ẋ = A x + B u (1.24) mit einer n n -Matrix A und einer n m -Matrix B. Die Funktion f(x,u) = Ax+Bu sei also linear sowohl bzgl. x als auch bzgl. u bei konstanten Koeffizienten. Wegen dieser vergleichsweise einfachen Struktur der Dynamik lassen sich mithilfe der Theorie gewöhnlicher Differentialgleichungen anschauliche Resultate hinsichtlich der Steuerbarkeit eines solchen Systems gewinnen. An dieser Stelle sei noch einmal explizit auf die Konvexität des Steuerbereichs U hingewiesen (vgl. Definition 1.4). Die Lösung der Anfangswertaufgabe ẋ = A x + B u, x() = x, ist gegeben durch x(t) = e At x + t e A(t s) Bu(s)ds, (1.25) was z.b. in [WALTER 2] gezeigt wird. Ein wichtiger Begriff im Zusammenhang mit linearen Systemen ist der der erreichbaren Menge. Man bezeichnet mit der von einem Punkt x aus zur Zeit t [,T] erreichbaren Menge K(t; x ) diejenige Menge von Punkten x 1 R n, zu denen es eine zulässige (stückweise stetige) Steuerung u : [,t] U gibt, so dass für die zugehörige Trajektorie 15

28 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse x : [,t] R n gilt: x() = x, x(t) = x 1. Unter Berücksichtigung von (1.25) ist diese Menge gegeben durch { K(t;x ) := e At x + t } e A(t s) Bu(s)ds u : [,t] U stw. st. Ein System der Form (1.24) mit U = R m heißt vollständig steuerbar, falls es zu je zwei Punkten x, x 1 R n ein t 1 gibt, so dass x 1 K(t 1 ; x ) gilt. Befindet sich das System also in einem beliebigen Zustand x, so lässt es sich in jeden möglichen Zustand x 1 des Zustandsraums bringen, falls man das Zeitfenster entsprechend anpasst. Die Vermutung, dass dazu bei steigender Distanz der beiden Zustände auch das Zeitfenster vergrößert werden müsste, ist falsch, wenn der Prozess keiner Steuerbeschränkung unterliegt. Es gilt nämlich folgende Aussage, deren Beweis in [KNOBLOCH 1985] zu finden ist. Satz 1.3 (Vollständige Steuerbarkeit linearer Systeme) Ein System (1.24) ist genau dann vollständig steuerbar, wenn K(t) := K(t; ) = R n für alle t > gilt. Als wichtiges Hilfsmittel zur Untersuchung linearer Systeme bezüglich ihrer Steuerbarkeit dient die Kalmann-Matrix C. Definition 1.12 (Kalmann-Matrix) Die n n m-matrix C = [ B, A B, A 2 B,..., A n 1 B ] (1.26) heißt Steuerbarkeitsmatrix oder Kalmann-Matrix. In Abhängigkeit der Beschaffenheit des Steuerbereichs U erhält man mittels der Kalmann-Matrix C unterschiedliche Resultate bezüglich der erreichbaren Menge K(t). Die zwei wichtigsten Aussagen gebe ich an dieser Stelle an. Beweise sind wiederum zu finden in [MAURER 26]. Satz 1.4 Sei U = R m. Für alle t > gilt K(t) = Bild (C). (1.27) Satz 1.5 Sei U R m und int (U). Für alle t > sind folgende Aussagen äquivalent: 16

29 1.4: Steuerprozesse mit linear auftretender Steuerung (i) (ii) int (K (t)) rang (C) = n Im Zusammenhang mit der bei linear eingehender Steuerung häufig auftretenden bang-bang Struktur (vgl. Definition 1.15) ist bei Systemen des Typs (1.24) die Normalität von Bedeutung. Aus der Normalität lässt sich nämlich die sonst nur schwer nachzuweisende bang-bang Eigenschaft der optimalen Steuerung folgern. Definition 1.13 (Normalität eines linearen Systems) Ein lineares System ẋ = A(t) x + B(t) u (1.28) heißt normal, wenn für alle Zeilenvektoren v R n \{} die Funktion v Φ(t) 1 b i (t) nur isolierte Nullstellen in [, ) hat für i = 1,...,m. In dieser Definition bezeichnet Φ(t) eine Fundamentalmatrix des Systems (1.28), d.h. Φ(t) = [φ 1 (t),...,φ n (t)] und φ i (t), i = 1,...,n, bilden eine Basis des Lösungsraumes von (1.28). Bei autonomen Systemen wie (1.24) kann man zeigen, dass dieses Normalitätskriterium äquivalent zur Bedingung rang [ b i, A b i, A 2 b i,..., A n 1 ] b i = n, i = 1,...,m, (1.29) ist. Bei dem von mir in Kapitel 5 behandelten Modell gilt m = 1 und (1.29) vereinfacht sich daher zu rang(c) = n. (1.3) Dies liefert folgende Erkenntnis: Bemerkung 1.3 Die Normalität bei autonomen linearen Systemen (1.24) mit eindimensionalem Steuerbereich U = [u min, u max ] ist äquivalent zur vollständigen Steuerbarkeit Auswertung der Minimumbedingung Eine zentrale Rolle bei der Untersuchung von Steuerprozessen mit linear eingehender Steuerung nimmt die Schaltfunktion σ ein. 17

30 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Definition 1.14 (Schaltfunktion) Einem Steuerprozess mit linear eingehender Steuerung u ordnet man die R m -wertige Funktion σ(x,λ) := b (x) + λb(x), (1.31) die sogenannte Schaltfunktion, zu. Entlang einer Lösung (x,λ) des Minimumprinzips definiert man zudem σ(t) := σ(x(t),λ(t)). (1.32) Durch die Auswertung der Minimumbedingung (1.13) lässt sich bei diesen Problemen eine sehr einfache Steuervorschrift gewinnen. Man betrachte hierzu wieder die Hamilton-Funktion H(x,λ,u) = a (x) + b (x)u + λ(a(x) + b(x)u) = a (x) + λa(x) + (b (x) + λb(x))u. Nach dem Minimumprinzip muss für eine optimale Lösung (x,u ) gelten: H(x (t),λ(t),u (t)) = min u U H(x (t),λ(t),u) = a (x(t)) + λ(t)a(x(t)) + min u U (b (x(t)) + λ(t)b(x(t)))u Diese Minimumbedingung ist offensichtlich äquivalent zu der Bedingung (b (x (t)) + λ(t)b(x (t)))u (t) = min u U (b (x (t)) + λ(t)b(x (t)))u, was sich mit (1.31) und (1.32) schreiben lässt als σ(t)u (t) = min u U σ(t)u. (1.33) Nehmen wir an dieser Stelle aus Gründen der Vereinfachung m = 1 und den konvexen Steuerbereich U somit als abgeschlossenes Intervall an, d.h. U = [u min,u max ], dann liefert uns die Minimumbedingung (1.33) die Vorschrift u min, falls σ(t) > u (t) = u max, falls σ(t) < (1.34) unbestimmt, falls σ(t) = Bei einem m dimensionalen Steuerbereich der Gestalt m U = [u min, i,u max, i ] i=1 gilt (1.34) entsprechend komponentenweise für u i und σ i, i = 1,...,m. 18

31 1.4: Steuerprozesse mit linear auftretender Steuerung Definition 1.15 (bang-bang und singuläre Steuerungen) Gegeben sei ein Steuerprozess (1.8) mit linear eingehender Steuerung gemäß (1.23) sowie ein Intervall [t 1,t 2 ] [,T] mit t 1 < t 2. (i) Die Steuerung u heißt bang-bang im Intervall [t 1,t 2 ], falls die Schaltfunktion σ nur isolierte Nullstellen in [t 1,t 2 ] besitzt. Wegen (1.34) gilt dann u(t) {u min,u max } für fast alle t [t 1,t 2 ]. (ii) Die Steuerung u heißt singulär im Intervall [t 1,t 2 ], falls σ(t) = für alle t [t 1,t 2 ] gilt. In diesem Fall heißen die Punkte t 1 und t 2 Verbindungspunkte, falls es ein ǫ > gibt, so dass u bang-bang ist in den Intervallen [t 1 ǫ,t 1 ] und [t 2,t 2 + ǫ]. σ(t) σ < σ > σ = σ > t u(t) u max u = u max u sing t u = u min u = u min u min Abb. 1.1: Beispiel einer Schaltfunktion σ und Steuerung u mit singulärem Teilstück u sing Im Gegensatz zu den zeitoptimalen linearen Steuerprozessen, bei denen die Normalität des zugehörigen Systems eine bang-bang Struktur der optimalen 19

32 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Steuerung garantiert, gibt es bei allgemeinen linearen Steuerprozessen kein Kriterium für bang-bang Steuerungen. Diese hängen von den Randbedingungen und der Wahl des Steuerbereichs U ab Transformation auf ein finites Optimierungsproblem Für die numerische Behandlung eines optimalen Steuerprozesses mit linear eingehender Steuerung, beispielsweise mit der FORTRAN-Routine NUDOCCCS [BÜSKENS 1996], bietet es sich an, die bang-bang Struktur der Steuerung auszunutzen und den Steuerprozess auf ein äquivalentes endlich-dimensionales Optimierungsproblem zu übertragen. Wir gehen hierbei von einem Steuerprozess in Mayer-Form (vgl ) mit freier Endzeit T aus. Im einfachsten Fall hat die Schaltfunktion σ im Intervall [,T ] eine endliche Anzahl s isolierter Nullstellen t 1,...,t s, d.h. man kann eine Unterteilung des Intervalls [,T ] vornehmen der Gestalt = t < t 1 < < t s < t s+1 = T. Da es in diesem Fall kein singuläres Teilstück gibt, folgt wegen (1.34) für die optimale Steuerung u : u (t) = u k für t k 1 t t k, k = 1,...,s + 1, (1.35) mit u k {u min,u max }. Wir formulieren nun ein finites Optimierungsproblem, bei dem die freien Schaltpunkte t 1,...,t s,t s+1 bzw. die zugehörigen Intervalllängen ξ i = t i t i 1, i = 1,...,s+1 die Optimierungsvariablen sein werden. Man definiert nun von diesen Variablen abhängige Steuerung und Zustand unter Berücksichtigung von (1.35): u(t) := u(t; t 1,...,t s ) = u k für t k 1 t t k, k = 1,...,s + 1 x(t) := x(t; t 1,...,t s ) { ẋ(t) = f(x(t),uk ) für t k 1 t t k, = Lsg. der AWA x() = x Mit den Bezeichnungen z := (t 1,...,t s+1 ), G(z) := g(x(t s+1 ; t 1,...,t s )), Ψ(z) := ψ(x(t s+1 ; t 1,...,t s )) 2

33 1.4: Steuerprozesse mit linear auftretender Steuerung lautet das zu dem Steuerproblem äquivalente Optimierungsproblem Minimiere G(z) unter Ψ(z) =. (1.36) Bei der numerischen Behandlung eines solchen Problems mit NUDOCCCS geht man in der Regel nach der arc parametrization method vor und betrachtet als Optimierungsvariablen statt der Zeitpunkte t k die Intervalllängen ξ k := t k t k 1. Dieser Ansatz wird in [KAYA 1996] vorgeschlagen und ermöglicht einem gegebenenfalls, auch singuläre Teilstücke zu berücksichtigen (vergleiche dazu [VOSSEN 26]), indem man wie im folgenden Abschnitt erläutert die mögliche singuläre Steuerung berechnet und dann an den entsprechenden Positionen in der Dynamik den Term dieser berechneten Steuerung einsetzt. Des Weiteren ermöglicht einem die Transformation auf ein finites Optimierungsproblem die Herleitung hinreichender Optimalitätsbedingungen 2. Ordnung (SSC: Second Order Sufficient Conditions) auf Basis der endlich-dimensionalen Optimierung [FIACCO 1976]. Eine Einführung in die Theorie nichtlinearer Optimierungsprobleme würde an dieser Stelle zu weit führen. Die wichtigsten Begriffe (Lagrange-Funktion, KKT-Bedingung, etc.) und Definitionen werden in Abschnitt 4.1 vorgestellt. Satz 1.6 (Hinr. Bedingungen für bang-bang Steuerungen) Für das transformierte finite Optimierungsproblem bzgl. der Variable z = (t 1,...,t s,t s+1 ) T seien für einen Punkt z die hinreichenden Bedingungen 2. Ordnung aus Satz 4.2 erfüllt, d.h. es gebe Lagrange-Multiplikatoren ρ 1,...,ρ r, so dass mit der Lagrange-Funktion L (siehe Def. 4.4) gilt 1. L z (z,ρ) =, 2. rang(ψ z (z )) = r, 3. v T L zz (z,ρ)v > v R s+1 \ {}, Ψ z (z )v =. Wenn zusätzlich die Bedingungen (a) σ(t k ), für k = 1,...,s, (b) σ(t) für t {t 1,...,t s } erfüllt sind, dann ist die bang-bang Steuerung u (t) mit u (t) = u k für t k 1 t t k ein striktes lokales Minimum bzgl. der L 1 -Norm. Zum Beweis dieser hinreichenden Bedingungen siehe [AGRACHEV 22] in Verbindung mit [OSMOLOVSKII 24]. 21

34 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Singuläre Steuerungen Bei einer der von mir in Kapitel 5 diskutierten Varianten des mechatronischen Modells handelt es sich um einen Steuerprozess mit linear eingehender Steuerung und sogenannten reinen Zustandsbeschränkungen, welche im folgenden Kapitel behandelt werden. In diesem Zusammenhang trifft man auf eine formale Parallele zwischen singulären Steuerungen und Randsteuerungen bzgl. der Zustandsbeschränkung. Daher sollen in diesem Abschnitt einige Eigenschaften von singulären Steuerungen vorgestellt werden. Das Steuergesetz (1.34) liefert für ein mögliches singuläres Teilstück [t 1,t 2 ] lediglich die unbefriedigende Aussage u(t) = unbestimmt für alle t [t 1,t 2 ]. Im Folgenden soll gezeigt werden, dass es bei den meisten Steuerproblemen möglich ist, die Steuerung auf einem singulären Teilstück durch einen von x und λ abhängigen Ausdruck u sing (x,λ) anzugeben. Die Idee bei dieser Berechnung ist die mehrfache Differentiation der Schaltfunktion σ nach der Zeit t, bis erstmals die Steuervariable u explizit auftritt. Hierzu definiere man Funktionen σ (k), k k ausgehend von σ () (x,λ) := σ(x,λ) durch σ (k+1) = dσ(k) dt = σ(k) x σ(k) ẋ + λ λ = σ(k) x f(x,u) H x(x,λ,u) σ(k) λ. Falls u σ(k) = für alle k gilt, lässt sich die singuläre Steuerung nicht näher bestimmen. Anderenfalls gibt es ein k = 2q, q 1, für welches gilt u σ(k) = für k =,..., k 1, u σ(k) für k = k. Satz 1.7 (Ordnung einer singulären Steuerung) Falls gilt k <, so ist k = 2q eine gerade Zahl. Die Zahl q 1 heißt die Ordnung der singulären Steuerung. Man kann zeigen, dass bei einer singulären Steuerung der Ordnung q die Funktion σ ( k) (affin-)linear von u abhängt: σ ( k) = A(x,λ) + B(x,λ)u. (1.37) 22

35 1.5: Steuerprozesse mit regulärer Hamilton-Funktion Die Schaltfunktion verschwindet auf einem singulären Teilstück, d.h. die singuläre Steuerung ist charakterisiert durch σ (k) (x(t),λ(t)) =, t 1 t t 2, k =,1,..., k 1, σ (k) (x(t),λ(t),u(t)) =, t 1 t t 2, k = k. (1.38) Satz 1.8 (Verallgemeinerte Legendre-Clebsch-Bedingung) Sei (x,λ,u ) eine optimale Lösung eines Steuerprozesses mit linear eingehender Steuerung, und sei q die Ordnung einer (möglichen) singulären Steuerung. (i) Entlang der optimalen Lösung (x,λ,u ) gilt die verallgemeinerte Legendre-Clebsch-Bedingung ( 1) q B(x (t),λ(t)) = ( 1) q u ( d2q dt 2q H u(x (t),λ(t),u (t)) ). }{{} =σ ( k) (ii) Gilt in (i) sogar die strenge Ungleichung, so spricht man von der strikten verallgemeinerten Legendre-Clebsch-Bedingung. Ist die strikte Legendre-Clebsch-Bedingung erfüllt, so gilt B(x(t),λ(t)), t 1 t t 2 und man erhält mithilfe von (1.37) und (1.38): u sing (x,λ) = A(x,λ) B(x,λ) bzw. u sing(t) = A(x(t),λ(t)) B(x(t),λ(t)). (1.39) 1.5 Steuerprozesse mit regulärer Hamilton-Funktion In diesem Abschnitt werden Steuerprobleme untersucht, deren Hamilton-Funktion H nichtlinear von der formalen Variablen u abhängt, d.h. u tritt im Integranden f des Zielfunktionals oder in der Dynamik f nichtlinear auf. Solche Probleme besitzen üblicherweise eine sogenannte reguläre Hamilton-Funktion. Wie sich zeigen wird, ist die optimale Steuerung eines regulären Hamiltonproblems eine stetige Funktion. Definition 1.16 (Reguläre Hamilton-Funktion) Eine Hamilton-Funktion H heißt regulär bezüglich einer Trajektorie (x,λ) : [,T] R n R n, wenn es ein ǫ > gibt, sodass bezüglich des ǫ-schlauchs um diese Trajektorie D ǫ := {(t,x,λ) R R n R n t [,T], x x(t) < ǫ, λ λ(t) < ǫ} 23

36 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse gilt: die Funktion u H(t,x,λ,u) hat für jedes (t,x,λ) D ǫ eine eindeutig bestimmte Minimalstelle u (t,x,λ) = arg min H(t,x,λ,u). (1.4) u U Ein Steuerproblem mit einer regulären Hamilton-Funktion ermöglicht es folglich, die optimale Steuerung u als Funktion der optimalen Zustandstrajektorie x und der adjungierten Variablen λ (und bei nichtautonomen Problemen der Zeitvariablen t) zu formulieren. Gemäß der Mimimumbedingung (1.13) aus dem Pontryaginschen Minimumprinzip gilt nämlich u (t) = u (t,x (t),λ(t)) t [,T]. (1.41) Entscheidenden Einfluss auf die Struktur und die Differenzierbarkeitseigenschaften der Steuerung u hat die Topologie des Steuerbereichs U R m. So wird sich im folgenden Abschnitt zeigen, dass im Falle einer offenen Steuermenge U (bspw. U = R m ) bei C k -regulärer Hamilton-Funktion die optimale Steuerung nicht nur stetig sondern sogar selbst eine C k -Funktion (k 1) ist Fall: U R n offen Ein in der Praxis recht häufig auftretender Fall eines offenen Steuerbereichs sind Modelle, bei denen die Wertemengen der einzelnen Steuerfunktionen nicht beschränkt sind, d.h. es gilt U = R m. Für solche Prozesse muss wegen der Minimumbedingung (1.13) gelten: H u (t,x (t),λ(t),u (t)) =, H uu (t,x (t),λ(t),u (t)). (1.42) Dieses Kriterium heißt Legendre-Clebsch-Bedingung und stellt lediglich die wohl bekannte notwendige Bedingung für ein Minimum der Funktion u min u U H(t,x (t),λ(t),u) dar (für gegebenes (t,x (t),λ(t))). Gilt sogar die Verschärfung H uu (t,x (t),λ(t),u (t)) >, so spricht man von der strikten Legendre-Clebsch-Bedingung. Die Voraussetzungen vom Satz über implizite Funktionen 4.3 sind dann erfüllt und dieser ermöglicht einem die lokale Auflösung der Gleichung H u (t,x,λ,u) = nach u (t,x,λ). Falls für den Steuerbereich U R m m 2 gilt, so bedeutet die (strikte) Legendre-Clebsch- Bedingung, dass die m m-matrix H uu positiv definit bzw. positiv semidefinit ist. 24

37 1.5: Steuerprozesse mit regulärer Hamilton-Funktion Definition 1.17 (C k -reguläre Hamilton-Funktion) Eine Hamilton-Funktion H heißt C k -regulär (k 1), wenn H regulär ist und die Funktion (t,x,λ) u (t,x,λ) = arg min u U H(t,x,λ,u) eine C k -Funktion auf dem ǫ-schlauch D ǫ (siehe Def. (1.16)) mit ǫ > ist. Bei einer C k -regulären Hamilton-Funktion kann man das Lösen des Steuerproblems auf das Lösen eines Randwertproblems zurückführen. Die Idee hierbei ist, die Variable u in der Differentialgleichung ẋ = f(t, x, u) und der adjungierten Differentialgleichung λ = H x (t,x,λ.u) zu eliminieren, indem man sie durch die C k -Funktion u (t,x,λ) ersetzt. Dies führt zu einem Differentialgleichungssystem für die Variablen x und λ, ẋ = f(t,x,u (t,x,λ)) =: h 1 (t,x,λ) λ = H x (t,x,λ,u (t,x,λ)) =: h 2 (t,x,λ) T, oder in kompakter Schreibweise ( ) ( x h1 (t,x,λ) = λ T h 2 (t,x,λ) ) =: h(t, x, λ). (1.43) Es handelt sich hierbei also um ein Differentialgleichungssystem mit 2n Variablen (x 1,...,x n,λ 1,...,λ n ). Sind die Randbedingungen des Steuerproblems in der Form x() = x, x i (T) = c i, i = 1,...,r gegeben, so muss die Lösung (x,λ) T von (1.43) den Randbedingungen x() = x, x i (T) = c i, i = 1,...,r, λ i (T) = g x i (x(t)), i = r + 1,...,n, genügen. Die Bedingungen für λ ergeben sich durch Auswertung der Transversalitätsbedingung (1.16), vgl. (1.21). Eine numerische Lösungsmethode für dieses Randwertproblem (RWP) ist das shooting-verfahren. In dessen einfachster Variante als Einfachschießverfahren betrachtet man zunächst statt eines Randwert- ein parametrisiertes Anfangswertproblem. Dieses besteht in unserem Falle aus der zugrundeliegenden DGL (1.43) und den Anfangsbedingungen x() = x, λ() = s. Die Lösung dieses Anfangswertproblems bezeichne man mit x(t;s), λ(t;s). Nun ist es das Ziel des Verfahrens, den shooting-parameter 25

38 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse s R n so zu bestimmen, dass die 2n Bedingungen x i (T;s) = c i, i = 1,...,r, (1.44) λ i (T;s) = g (x(t;s)),i = r + 1,...,n (1.45) x i erfüllt werden (z.b. durch Verwendung des NEWTON-Verfahrens als Hilfsmittel). Das shooting-verfahren wird u.a. in [STOER 25] behandelt. Bemerkung 1.4 Ist die Hamilton-Funktion H(t,x,λ,u) C k -regulär, dann ist die optimale Steuerung u (t) = u (t,x (t),λ(t)) eine C k -Funktion bzgl. t, da die Lösungen x(t), λ(t) des RWP (1.43) in diesem Falle auch C k -Funktionen sind Fall: U R m kompakt In diesem Abschnitt betrachten wir Steuerprozesse mit regulärer Hamilton- Funktion H, deren zulässiger Steuerbereich U durch ein kompaktes Polyeder beschrieben wird. Dieses Polyeder kann beispielsweise die Gestalt eines m- dimensionaler Quaders U = Π m i=1 [u i,min,u i,max ] besitzen. Wir beschränken uns auf den Fall m = 1 und gehen somit von einem Steuerbereich U = [u min,u max ], u min < u max aus. Aufgrund dieser Beschränkung ist im Allgemeinen nicht mehr zu erwarten, dass entlang der optimalen Lösung die Legendre-Clebsch Bedingung H u [t] = in jedem Zeitpunkt t [,T] erfüllt ist. Daher lässt sich die optimale Lösung u auch nicht auf dem kompletten Zeitintervall [,T] wie im ersten Fall durch diese Bedingung bestimmen. Es können nämlich Randstücke auftreten, auf denen H u gilt. Diese werden in folgender Definition beschrieben. Definition 1.18 Sei ein Steuerproblem (1.8) mit regulärer Hamilton-Funktion H und Steuerbereich U = [u min,u max ] gegeben. Dann ist die optimale Steuerung in der Regel zusammengesetzt aus inneren Teilstücken und Randstücken. 1. Ein inneres Teilstück (interior arc) der Steuerung ist ein Intervall (t 1,t 2 ), t t 1 < t 2 T, auf welchem die Steuerung Werte aus dem Inneren des Steuerbereichs annimmt: u min < u(t) < u max, t 1 < t < t 2. 26

39 1.5: Steuerprozesse mit regulärer Hamilton-Funktion 2. Ein Randstück (boundary arc) der Steuerung ist ein Intervall [t 1,t 2 ], t t 1 < t 2 T, auf welchem die Steuerung Werte von dem Rand des Steuerbereichs annimmt: u(t) = u min oder u(t) = u max, t 1 t t Ein Zeitpunkt t 1 (,T) heißt Eintrittspunkt eines Randstücks [t 1,t 2 ], wenn es ein ǫ > gibt mit u(t) > u min bzw. u(t) < u max für t 1 ǫ t < t Ein Zeitpunkt t 2 (,T) heißt Austrittspunkt eines Randstücks [t 1,t 2 ], wenn es ein ǫ > gibt mit u(t) > u min bzw. u(t) < u max für t 2 < t t 2 +ǫ. u(t) u max Eintrittspunkt Randstück Austrittspunkt u min Randstück Inneres Teilstück Inneres Teilstück Randstück t Abb. 1.2: Beispiel einer optimalen Steuerung eines regulären Hamilton- Problems mit Steuerbeschränkung U = [u min,u max ] Für die weiteren Betrachtungen fordern wir die C k -Regularität der Hamilton- Funktion H auf einer hinreichend großen offenen Umgebung V des kompakten Steuerbereichs U. Auf inneren Teilstücken lässt sich die optimale Steuerung u wie im vorhergehenden Abschnitt erläutert bestimmen: man berechnet u (t,x,λ) mithilfe der strikten Legendre-Clebsch Bedingung H u (t,x,λ,u) =, H uu (t,x,λ,u) > und erhält wegen der Minimumbedingung (1.13) die Beziehung u (t) = u (t,x (t),λ(t)). Auf Randstücken gilt allerdings nicht H u [t] =. 27

40 Kapitel 1: Einführung in die Theorie optimaler Steuerprozesse Handelt es sich um ein Randstück mit u (t) = u min, so folgt H u [t]. Entsprechend gilt für Randstücke mit u (t) = u max die Bedingung H u [t]. Lemma 1.2 Die optimale Steuerung u ist stetig in jedem Eintritts- bzw. Austrittspunkt eines Randstücks. Diese Aussage folgt aus der C k -Regularität der Hamilton-Funktion H: Da demnach die Abbildung (t,x,λ) u (t,x,λ) eine C k -Funktion ist und ferner die optimale Zustandstrajektorie x und die zugehörige Adjungierte λ bei den hier betrachteten Steuerproblemen ebenfalls stetige Funktionen der Zeit t sind, ist auch die,,verknüpfung u (t,x (t),λ(t)) stetig bzgl. t, d.h. u (t) ist stetig. Analog zu den Techniken in Abschnitt lässt sich auch bei kompaktem Steuerbereich U das Lösen des Steuerproblems auf das Lösen eines Randwertproblems für x und λ zurückführen. Gemäß Lemma 1.2 handelt es sich nun allerdings um ein Mehrpunkt-Randwertproblem mit den zusätzlichen,,innere- Punkt-Bedingungen u (t 1,x(t 1 ),λ(t 1 )) = u min bzw. u (t 1,x(t 1 ),λ(t 1 )) = u max für jeden Eintritts- / Austrittspunkt t 1 (,T). Auf diesem Lösungsansatz basiert u.a. auch die FORTRAN-Routine BNDSCO [OBERLE 1989], in welcher die Mehrzielmethode zur Berechnung von Randwertproblemen implementiert ist. 28

41 2 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen In den vorangegangenen Abschnitten wurden Steuerprobleme betrachtet, bei denen nur der Steuerbereich U R m beschränkt war, während die Komponenten der Zustandstrajektorie x keinen Beschränkungen unterlagen. In diesem Abschnitt geht es nun um Prozesse, deren Zustandstrajektorie entlang des zu betrachtenden Zeitintervalls [, T] einer Restriktion S(x(t)) mit einer gegebenen Funktion S : R n R k unterliegt. Derartige Probleme treten häufig in mechanischen Prozessen auf, bei denen Zustandsgrößen wie beispielsweise Ort oder Geschwindigkeit einer Systemkomponente beschränkt werden sollen oder aufgrund des physikalischen Rahmens sogar beschränkt werden müssen. So kann es nämlich sein, dass sich bei einem Steuerprozess ohne Zustandsbeschränkungen mit gegebenem Anfangs- und Endzustand x bzw. x T die optimale Trajektorie zunächst sehr stark vom gewünschten Endzustand x T entfernt, was oftmals nicht erwünscht ist. Weitere Anwendungen stellen Modelle aus den Wirtschaftswissenschaften und aus der Luft-/Raumfahrt dar. 2.1 Grundlegende Begriffe Wir werden feststellen, dass bei zustandsbeschränkten Steuerproblemen die zugeordnete adjungierte Variable λ in gewissen Punkten unstetig sein kann und somit die Optimalitätsbedingungen des Pontryaginschen Minimumprinzips in der Form von Satz 1.1 nicht mehr gelten können. Allerdings ermöglicht eine Erweiterung des Mimimumprinzips die Formulierung notwendiger Bedingungen auch für zustandsbeschränkte Prozesse. Im Folgenden stelle ich zunächst die hierzu erforderlichen Begriffe und Resultate vor. 29

42 Kapitel 2: Optimale Steuerprozesse mit reinen Zustandsbeschränkungen Definition 2.1 (Steuerprozess mit reinen Zustandsbeschränkungen) Einen optimalen Steuerprozess der Form 1 T Minimiere F(x,u) = g(x(t)) + f (x,u)dt unter ẋ = f(x,u), t T, x() = x, ψ(x(t)) =, (2.1) u(t) U R m konvex, t T, S(x(t)), t T, nennt man einen Steuerprozess mit Zustandsbeschränkung. Dabei ist die reine Zustandsbeschränkung S(x(t)), t T, (2.2) gegeben durch eine hinreichend oft differenzierbare Funktion S : R n R k. Die Aufgabenstellung besteht also darin, eine Steuerung u : [,T] U zu finden, die der Dynamik und den Randbedingungen genügt, das Zielfunktional minimiert und außerdem dafür sorgt, dass sich der Zustandsvektor x(t) zu jedem Zeitpunkt t [,T] in dem durch die Zustandsbeschränkung S : R n R k definierten Bereich befindet. Gilt in einem Zeitpunkt t [,T] S(x(t)) =, so sagt man, die Zustandsbeschränkung ist in diesem Zeitpunkt aktiv. Für nicht aktive Punkte t [, T] gelten die bekannten notwendigen Optimalitätsbedingungen aus Satz 1.1. Im Folgenden gehen wir davon aus, dass die Beschränkung in mindestens einem Zeitpunkt aktiv ist. Je nach Verlauf der Zustandstrajektorie unterteilt man das Intervall [, T] in innere Teilstücke, Randstücke und Kontaktpunkte. Definition Ein inneres Teilstück (interior arc) ist ein Intervall (t 1,t 2 ), t 1 < t 2 T, auf welchem die Zustandsbeschränkung S nicht aktiv ist, d.h. es gilt S(x(t)) <, t 1 < t < t Ein Randstück (boundary arc) ist ein Intervall [t 1,t 2 ], t 1 < t 2 T, auf welchem die Zustandsbeschränkung S aktiv ist, d.h. es gilt S(x(t)) =, t 1 t t 2. 1 Zur Vereinfachung behandeln wir in diesem Abschnitt nur autonome Steuerprozesse, vgl. hierzu Abschnitt

43 2.1: Grundlegende Begriffe 3. Ein Punkt t 1 (,T) heißt Eintrittspunkt eines Randstücks [t 1,t 2 ], wenn es ein ǫ > gibt mit S(x(t)) < für t 1 ǫ t < t Ein Punkt t 2 (,T) heißt Austrittspunkt eines Randstücks [t 1,t 2 ], wenn es ein ǫ > gibt mit S(x(t)) < für t 2 < t t 2 + ǫ. 5. Ein Punkt τ (,T) heißt Kontaktpunkt, falls es ein ǫ > gibt mit S(x(τ)) = und S(x(t)) < für τ ǫ < τ < τ + ǫ. S(x(t)) Eintrittspunkt Austrittspunkt Kontaktpunkt t Randstück Inneres Teilstück Abb. 2.1: Verlauf einer Trajektorie mit reinen Zustandsbeschränkungen Als Nächstes stellen wir uns die Frage, wie man auf einem Randstück [t 1,t 2 ] die Randsteuerung u ausrechnen kann. Anders als die sogenannten gemischten Beschränkungen der Form C(x, u) hängen Zustandsbeschränkungen nicht von der formalen Variablen u ab, so dass es auch nicht möglich ist, aus der Gleichung S(x) = direkt Informationen über die Randsteuerung u zu erhalten. Der Zustand x wird aber bekanntlich über die Dynamik ẋ = f(x, u) durch die Steuerung u beeinflusst, und so ist die naheliegende Idee, durch (ggf. mehrfache) Differentiation von S(x(t)) nach t ein explizites Auftreten der Variablen u zu bewirken. Zur Vereinfachung gehen wir von dem Fall m = 1 und einer skalaren 31

44 Kapitel 2: Optimale Steuerprozesse mit reinen Zustandsbeschränkungen Funktion S : R n R aus. Definition 2.3 (Ordnung einer Zustandsbeschränkung) Gegeben sei ein optimaler Steuerprozess (1.8) mit der reinen Zustandsbeschränkung S(x(t)), t T. Man definiere rekursiv die Funktionen S k = S k (x,u), k, durch S (x) := S(x), S k+1 (x,u) := (S k (x,u)) x f(x,u). Die Zahl q N + heißt Ordnung der Zustandsbeschränkung S(x) bzgl. der Dynamik ẋ = f(x,u), falls gilt S k u S q u = für k =,1,...,q 1,. Unter Berücksichtigung der Differentialgleichung ẋ = f(x,u) erhält man S k (x(t)) = S q (x(t),u(t)) = dk S(x(t)) für k =,1,...,q 1, dtk dq (2.3) dt q S(x(t)). Die Ordnung q 1 gibt also an, wie oft man die Zustandsbeschränkung S(x(t)) nach t differenzieren muss, um erstmals die Variable u explizit zu erhalten. Da auf einem Randstück [t 1,t 2 ] die Gleichung S(x(t)) = gilt, verschwinden dort auch sämtliche zeitlichen Ableitungen, d.h. es gelten die Beziehungen S k (x(t)) = für t 1 t t 2, k =,1,...,q 1 S q (x(t),u(t)) =. (2.4) Wegen des Eindeutigkeitssatzes bei Differentialgleichungen lassen sich die Bedingungen S k (x(t)) = für t 1 t t 2, k =,1,...,q 1, auf den Eintrittspunkt t 1 reduzieren, so dass (2.4) äquivalent ist zu S k (x(t 1 )) = für k =,1,...,q 1, S q (x(t),u(t)) = für t 1 t t 2. (2.5) 32

45 2.2: Notwendige und hinreichende Optimalitätsbedingungen 2.2 Notwendige und hinreichende Optimalitätsbedingungen Als Nächstes sollen notwendige Optimalitätsbedingungen für zustandsbeschränkte Steuerprobleme durch eine Erweiterung des Pontryaginschen Minimumprinzips 1.1 behandelt werden. Hierfür benötigen wir zunächst eine wichtige Voraussetzung und den Begriff der erweiterten Hamilton-Funktion. Voraussetzung 2.1 (Regularitätsbedingung) 1. Die Gleichung S q (x,u) = ist auflösbar nach u = u(x) mit einer C q+1 - Funktion u(x). 2. Auf jedem Randstück [t 1,t 2 ] gilt S q u (x(t),u(t)), t [t 1,t 2 ]. Die folgenden Begriffe und Sätze gelten für beliebiges m N + und k N +. Definition 2.4 (Erweiterte Hamilton-Funktion) Gegeben sei ein optimaler Steuerprozess mit reinen Zustandsbeschränkungen in der Form (2.1). Die diesem Prozess zugeordnete Funktion H(x,λ,µ,u) = λ f (x,u) + λf(x,u) + µs(x), λ R, λ R n ZV, µ R k ZV, (2.6) heißt erweiterte Hamilton-Funktion. Die Komponenten λ i, i = 1,...,n, des Vektors λ R n heißen wie in Definition 1.12 adjungierte Variablen und die Komponenten µ i, i = 1,...,k, des Vektors µ R k bezeichnet man als Multiplikatoren. In Anlehnung an ein Resultat aus [HARTL 1995] (vgl. dort: Informal Theorem 4.1) sowie den Ausführungen hierzu in [MAURER 1979], die von einer verallgemeinerten Regularitätsbedingung ausgehen, gilt folgender Satz: Satz 2.1 (Erweitertes Minimumprinzip bei Zustandsbeschränkungen) Sei (x,u ) : [,T] R n U eine optimale Lösung des zustandsbeschränkten Steuerproblems (2.1). Ferner sei die Regularitätsbedingung 2.1 erfüllt und für jedes Randstück [t 1,t 2 ] gelte u (t) int(u) für t 1 < t < t 2. Dann existieren 1. eine reelle Zahl λ und ein Vektor ρ R r, 2. eine stückweise stetige und stückweise stetig differenzierbare Funktion λ : [,T] R n, 33

46 Kapitel 2: Optimale Steuerprozesse mit reinen Zustandsbeschränkungen 3. eine stückweise stetige Multiplikatorfunktion µ : [,T] R k und 4. Multiplikatoren ν(t i ) R k, ν j (t i ), 1 j k, in jedem Eintritts-, Austritts- oder Kontaktpunkt t i (,T), so dass die folgenden Aussagen gelten: (i) Für alle t [, T] gilt die Minimumbedingung H(x (t),λ(t),µ(t),u (t)) = min u U H(x (t),λ(t),µ(t),u). (2.7) (ii) Es gilt die adjungierte Differentialgleichung λ(t) = H x (x (t),λ(t),µ(t),u (t)) (2.8) mit der Transversalitätsbedingung λ(t) = (g + ρψ) x (x (T)), falls S(x (T)) <. (2.9) (iii) µ(t) und µ(t)s(x (t)) = für t [,T]. (2.1) (iv) In jedem Ein- oder Austrittspunkt eines Randstückes oder Kontaktpunkt t i (,T) gilt die Sprungbedingung für die adjungierte Funktion λ: λ(t + i ) = λ(t i ) ν(t i)s x (x(t i )), (2.11) wobei λ(t + i ) = lim ǫց λ(t i + ǫ) bzw. λ(t i ) = lim ǫց λ(t i ǫ), d.h. λ kann in Eintritts-, Austritts- und Kontaktpunkten unstetig sein. (v) Falls T frei ist, gilt H(x (T),λ(T),µ(T),u (T)) =. (2.12) Die Ansätze zur Herleitung eines erweiterten Minimumprinzips in Anlehnung an das Pontryaginsche Minimumprinzip 1.1 lassen sich in zwei Kategorien unterteilen: zum einen die klassischen Methoden, zu finden beispielsweise in [KNOBLOCH 1975], zum anderen die (historisch jüngere) Herleitung mithilfe der unendlich-dimensionalen Optimierungstheorie (z.b. [MAURER 1979]), welche zu einem Minimumprinzip der Gestalt 2.1 (mit einer Multiplikatorfunktion µ) führt. 34

47 2.2: Notwendige und hinreichende Optimalitätsbedingungen An dieser Stelle sei angemerkt, dass auf inneren Teilstücken wegen der Bedingung (2.1) der Multiplikator µ verschwindet und somit H [t] = H [t] gilt, d.h. das Minimumprinzip reduziert sich bei inneren Teilstücken auf die Form von Satz 1.1. Schließlich erhält man unter zusätzlichen Konvexitätsannahmen sogar hinreichende Optimalitätskriterien (vgl. [HARTL 1995], Theorem 8.1): Satz 2.2 (Hinreichende Optimalitätsbedingungen) Sei (x, u) ein zulässiges Funktionenpaar für das zustandsbeschränkte Steuerproblem (2.1). Es gebe Funktionen λ : [,T] R n, µ : [,T] R k und Multiplikatoren ν(t i ) R k, ρ R r, so dass die notwendigen Bedingungen aus dem Minimumprinzip 2.1 erfüllt sind mit λ = 1. Zusätzlich seien (i) g(x) konvex, (ii) ψ(x) affin-linear, (iii) S(x) konvex und (iv) H min (x,λ(t)) konvex bezüglich x für alle t [,T]. 2 Dann ist (x,u) eine optimale Lösung des Problems. Der folgende Satz geht der Fragestellung nach, inwieweit es möglich ist, anhand charakteristischer Größen wie der Ordnung q eines betrachteten Steuerproblems mit Zustandsbeschränkung Voraussagen über das mögliche Auftreten von Verbindungs- bzw. Kontaktpunkten zu tätigen. Insbesondere sollen Zusammenhänge zwischen der Ordnung q, der Stetigkeit der Steuerung u und ggf. derer Ableitungen u (j), der Sprungbedingung für die Adjungierte λ sowie dem Typ des betrachteten Punktes t 1 (Verbindungspunkt von innerem Teilstück zu Randstück oder Kontaktpunkt) erläutert werden. Zur Vereinfachung betrachten wir wieder nur den Fall m = 1, k = 1, d.h. wir haben einen konvexen Steuerbereich U = [u min,u max ] und eine skalare Zustandsbeschränkung S : R n R. Satz 2.3 (Junction Conditions) Gegeben sei ein optimaler Steuerprozess (2.1) mit einer reinen Zustandsbeschränkung der Ordnung q und C q+1 -regulärer Hamilton-Funktion H. Sei t 1 2 H min (x, λ) = min u U H(x,λ, u) 35

48 Kapitel 2: Optimale Steuerprozesse mit reinen Zustandsbeschränkungen (,T) ein Verbindungs- bzw. ein Kontaktpunkt und seien u und x links- bzw. rechtseitig von t 1 stückweise analytisch. Dann gilt: (i) Für q = 1 ist u stetig in t 1 und es gilt ν(t 1 ) =, d.h., λ ist stetig in t 1. (ii) Für q 2 sind die Ableitungen u (j), j =,1,...,q 2, stetig in t 1. (iii) Ist q ungerade, q 3, und ist u (q 1) unstetig in t 1, dann kann t 1 kein Verbindungspunkt zwischen einem inneren Teilstück (der Länge > ) und einem Randstück sein. Zum Beweis vergleiche man [JACOBSON 1971] und [MAURER 1979]. 2.3 Zustandsbeschränkungen bei linear eingehender Steuerung Bei dem von mir in Kapitel 5 behandelten mechatronischen Modell handelt es sich um einen Steuerprozess mit linear eingehender Steuerung u, falls durch das Zielfunktional die Minimierung der Endzeit angestrebt wird. Treten bei dieser Klasse von Steuerprozessen Zustandsbeschränkungen auf, so ergeben sich einige Parallelen zwischen den möglichen Randsteuerungen und singulären Steuerungen. Sofern die Regularitätsbedingung 2.1 erfüllt ist, kann die optimale Steuerung auf einem Randstück explizit durch einen feedback-ausdruck u(x) angegeben werden. Man sagt, die Steuerung tritt in einem Steuerprozess (2.1) linear auf, wenn sowohl der Integrand f des Zielfunktionals als auch die Dynamik f linear von der Variablen u abhängen, d.h. f (x,u) = a (x) + b (x)u, f(x,u) = a(x) + b(x)u. Mit H(x,λ,µ,u) = λ (a (x)+b (x)u)+λ(a(x)+b(x)u)+µs(x) ergibt sich die Schaltfunktion σ mit λ = 1 zu σ(t) = H u [t] = b (x(t)) + λ(t)b(x(t)). Auf einem inneren Teilstücken [t 1,t 2 ] gilt nun S(x(t)) <, d.h., es gelten die üblichen Bedingungen des Pontryaginschen Minimumprinzip 1.1 und man fol- 36

49 2.3: Zustandsbeschränkungen bei linear eingehender Steuerung gert wie in Abschnitt aus der Minimumbedingung (1.13) die Vorschrift u min, falls σ(t) > für t [t 1,t 2 ] u(t) = u max, falls σ(t) < für t [t 1,t 2 ] (2.13) singulär, falls σ(t) = für t [t 1,t 2 ] Auf einem Randstück [t 1,t 2 ] gilt S(x(t)) =. Man kann zeigen, dass durch die Linearität von f bzgl. u auch S q (affin-)linear von u abhängt, d.h., S q hat die Gestalt S q (x,u) = α(x) + β(x)u. (2.14) Wegen der Regularitätsbedingung 2.1 gilt S q u (x(t),u(t)) = β(x(t)), t [t 1,t 2 ], so dass (2.14) die feedback-steuerung u(x(t)) = α(x(t)) β(x(t)), t [t 1,t 2 ] (2.15) liefert. Weiter gilt wegen der Voraussetzung, dass auf Randstücken t [t 1,t 2 ] die Bedingung u(t) int U, t [t 1,t 2 ] erfüllt ist, = H u [t] = σ(t). Dies ist die angesprochene formale Parallele zwischen Randsteuerungen und singulären Steuerungen bei Steuerprozessen mit linear eingehender Steuerung. 37

50 Kapitel 2: Optimale Steuerprozesse mit reinen Zustandsbeschränkungen 38

51 3 Optimale Steuerung von Multiprozessen Bei einigen Anwendungen optimaler Steuerprozesse trifft man auf die Problematik, dass die Dynamik nicht durch eine stetige Funktion f beschrieben werden kann. Die Stetigkeit von f auf dem gesamten Steuerintervall [, T] wurde jedoch bei den bisherigen Betrachtungen immer vorausgesetzt, vgl. Definition 1.1. Da für die realitätsnahe Modellierung des von mir in Abschnitt 5 diskutierten mechatronischen Systems u.a. eine auftretende Coulomb-Reibung berücksichtigt werden muss, welche auf die Vorzeichenfunktion +1, falls x > sign(x) =, falls x = 1, falls x < (3.1) führt und somit für die Unstetigkeit der Dynamik sorgt, gebe ich in diesem Abschnitt eine Einführung in das Gebiet der Multiprozesse. Diese stellen in gewisser Hinsicht eine Verallgemeinerung der in Abschnitt 1.1 erläuterten optimalen Steuerprozesse dar und erlauben Unstetigkeiten in der Dynamik und auch im Zielfunktional, was allerdings für diese Arbeit von nachrangiger Bedeutung ist. Außerdem gehe ich auf die notwendigen Optimalitätsbedingungen erster Ordnung ein. Diese sind Basis der meisten Lösungsalgorithmen. 3.1 Problemformulierung eines Multiprozesses Wir betrachten ein Zeitintervall [, T] mit freier Endzeit T. Dieses Intervall wird nun in eine bekannte Anzahl von N Teilintervallen [t j 1,t j ] gegliedert gemäß der Unterteilung = t < t 1 < < t j 1 < t j < < t N 1 < t N = T. (3.2) Die Intervalllängen bezeichne man mit ξ j = t j t j 1, j = 1,...,N, vgl. Abb

52 Kapitel 3: Optimale Steuerung von Multiprozessen = t t 1 t 2 t N 2 t N 1 t N = T τ 1 τ 2 τ N 1 τ N Abb. 3.1: Unterteilung t < t 1, < t N des Intervalls [,T] Wie bereits in den einleitenden Worten angedeutet sind die Zeitpunkte t j meist die Unstetigkeitsstellen der Dynamik oder des Zielfunktionals, welche jedoch a priori nicht bekannt sind und somit als zusätzliche Optimierungsvariablen aufgefasst werden. Für jedes Teilintervall [t j 1,t j ] können eine individuelle Dynamik ẋ(t) = f (j) (x(t),u(t)), t [t j 1,t j ], j = 1,...,N, (3.3) sowie ein zu minimierendes Zielfunktional F (j) (x,u) = g (j) (x(t j )) + tj t j 1 f (j) (x(t),u(t))dt, j = 1,...,N, (3.4) definiert werden mit hinreichend glatten Funktionen f (j), g (j) und f (j). In den Schaltpunkten t j ist die Ableitung ẋ(t j ) links- bzw. rechtsseitig zu verstehen. Des Weiteren stellt man in der Regel an den Zustand gewisse Randbedingungen der Gestalt ψ(x(),x(t 1 ),x(t + 1 ),...,x(t j ),x(t + j ),...,x(t N )) =. (3.5) Diese allgemeine Formulierung erlaubt sogar Unstetigkeiten des Zustandes x in den Schaltpunkten t j. Ein häufiger Spezialfall, bei dem der Zustand x entlang des betrachteten Intervalls [, T] stetig ist, wird durch die Vorgabe der Werte bestimmter Komponenten x i an ausgewählten Zeitpunkten t j gegeben, d.h. x i (t j ) = a ij i I j, j =,1,...,N, (3.6) mit Indexmengen I j {1,...,n}. In der folgenden Definition beschränken wir uns auf diesen Standardfall (3.6) und nehmen der Einheitlichkeit halber o.b.d.a an, dass sämtliche Zielfunktionale F (j) aus (3.4) in Lagrange-Form gegeben sind (g (j) =, j = 1,...,N). 4

53 3.2: Notwendige Optimalitätsbedingungen erster Ordnung Definition 3.1 (Optimaler Multiprozess) Ein Problem der Form N Minimiere F(x,t 1,...,t N,u) := F (j) (x,u) = N j=1 tj j=1 t j 1 f (j) (x(t),u(t))dt (3.7) unter ẋ = f (j) (x,u), t j 1 t t j, j = 1,...,N, nennt man einen optimalen Multiprozess. x i (t j ) = a ij i I j {1,...,n}, j =,1,...,N, 3.2 Notwendige Optimalitätsbedingungen erster Ordnung Ein Multiprozess der Form (3.7) lässt sich auf einen üblichen Steuerprozess (d.h. einen Prozess mit N = 1, single stage problem ) transformieren. Die notwendigen Bedingungen erster Ordnung für die Optimalität einer Lösung des Multiprozesses gewinnt man durch Anwendung des Pontryaginschen Minimumprinzips 1.1 auf diesen äquivalenten Steuerprozess. Die Transformation basiert auf einer Aufstockung des Zustands bzw. der Steuerung sowie einer Skalierung jedes der Teilintervalle [t j 1,t j ] auf das Einheitsintervall [,1] gemäß s(t) = t t j 1 ξ j, ξ j := t j t j 1, j = 1,...,N. (3.8) Auf diesem Einheitsintervall seien nun für j = 1,...,N die Zustände und die Steuerungen x (j) (s) := x(t j 1 + sξ j ), s [,1] (3.9) u (j) (s) := u(t j 1 + sξ j ), s [,1] (3.1) definiert. Für diese skalierten Funktionen sowie die zu optimierenden Intervalllängen ξ j lässt sich unter Berücksichtigung von (3.8) die Dynamik (3.3) schreiben als ẋ (j) (s) = dx(j) ds ξ j = dξ j ds =. = ξ j f (j) (x (j) (s),u (j) (s)), (3.11) 41

54 Kapitel 3: Optimale Steuerung von Multiprozessen Zur besseren Unterscheidung des aufgestockten Zustandes und der Steuerung des Multiprozesses von dem auf [, T] definierten Zustand / Steuerung des ursprünglichen Problems verwenden wir als neue Zustandsvariable y und als neue Steuervariable v. Der Zustand y ist dann definiert auf [,1] und enthält neben sämtlichen Zuständen x (j) aus (3.9) auch die freien Intervalllängen ξ j : y(s) := (x (1) (s),ξ 1,x (2) (s),ξ 2,...,x (N) (s),ξ N ) R N (n+1). (3.12) Entsprechend umfasst die auf [, 1] definierte Steuerung v die Komponenten u (1),...,u (N) aus (3.1): v(s) := (u (1) (s),...,u (N) (s)) R N m (3.13) y und u genügen nach (3.11) der Differentialgleichung ẏ(s) = f(y(s),v(s)), s [,1] (3.14) mit einer Funktion f : R N (n+1) R N m R N (n+1), f(y,v) := ξ 1 f (1) (x (1),u (1) ) (3.15)... ξ N f (N) (x (N),u (N) ) Die Randbedingungen (3.6) übertragen sich zu ϕ(y(),y(1)) = (3.16) mit einer Funktion ϕ : R 2 N (n+1) R r, r = N i= I j + (N 1) n, (x (1) i () a i ) i I ϕ(y(),y(1)) := (x i (j) (1) a ij ) i Ij. (3.17) x (j+1) () x (j) (1) j=1,...,n 1 (x (N) i (1) a in ) i IN An dieser Stelle sei wieder angemerkt, dass aufgrund der Standardrandbedingungen (3.6) der ursprüngliche Zustand x stetig in den Schaltpunkten t j ist, was in (3.17) durch die Gleichungen x (j+1) () x (j) (1) =, j = 1,...,N 1, 42

55 3.2: Notwendige Optimalitätsbedingungen erster Ordnung zum Ausdruck kommt. Für das Funktionenpaar (y, v) lautet nun das zu minimierende Zielfunktional F(y,v) := 1 f (y(s),v(s))ds (3.18) mit f (y,v) := N j=1 ξ j f (j) (x (j),u (j) ). Zusammenfassend erhält man den transformierten Steuerprozess: Minimiere F(y, v) := 1 f (y(s),v(s))ds = 1 N j=1 ξ j f (j) (x (j) (s),u (j) (s))ds (3.19) unter ẏ(s) = f(y(s),v(s)), s 1, ϕ(y(),y(1)) =. Der nächste Schritt besteht nun darin, die notwendigen Optimalitätsbedingungen erster Ordnung aus dem Pontryaginschen Minimumprinzip 1.1 auf das Problem (3.19) zu übertragen. Die Hamilton-Funktion lautet unter der üblichen Normalitätsannahme H(y,λ,v) = f (y,v) + λf(y,v) = N N ξ j f (j) (x (j),u (j) ) + λ (j) ξ j f (j) (x (j),u (j) ) = mit j=1 j=1 N ξ j H (j) (x (j),λ (j),u (j) ) j=1 H (j) (x (j),λ (j),u (j) ) := f (j) (x (j),u (j) ) + λ (j) f (j) (x (j),u (j) ), λ := (λ (1),λ ξ (1),λ (2),λ ξ (2),...,λ (N),λ ξ (N) ) R N (n+1), λ (j) R n, λ ξ (j) R, j = 1,...,N (Zeilenvektoren). Zunächst stellen wir die adjungierten Differentialgleichungen für λ (j) und λ ξ (j) gemäß (1.14) auf: λ (j) (s) = H x (j)(y(s),λ(s),v(s)) = ξ j H (j) x (j) (x (j),λ (j),u (j) ) λ (j) ξ (s) = H ξ j (y(s),λ(s),v(s)) = H (j) (x (j),λ (j),u (j) ) 43

56 Kapitel 3: Optimale Steuerung von Multiprozessen Die Transversalitätsbedingungen (1.15) und (1.16) liefern in diesem Fall λ() = d dy a ρ ϕ(y(),y(1)) λ(1) = d dy e ρ ϕ(y(),y(1)) mit einem Multiplikator ρ ij R r. Für den Anfangszustand x () () bzw. Endzustand x (N) (1) des Ausgangsproblems sind nur die Komponenten der Indexmengen I bzw. I N fest vorgegeben, d.h. die übrigen Komponenten sind frei und somit folgt: λ i (1) () =, für i I, λ i (N) (1) =, für i I N. Entsprechend erhält man aus der Randbedingung (3.17) für die Indizes i I j, j = 1,...,N 1, λ i (j+1) () = ( x a ) i (j+1) ρϕ(y(),y(1)) = ( x e ) i (j) ρϕ(y(),y(1)) = λ i (j) (1). Hierbei sei y a = (x a (1),ξ 1,...,x a (N),ξ N ) das erste Argument und in analoger Schreibweise y e = (x e (1),ξ 1,...,x e (N),ξ N ) das zweite Argument der Funktion ϕ. Für die restlichen Indizes i I j, j = 1,...,N 1, erhält man λ i (j+1) () = y a ρϕ(y(),y(1)) = ρ ij + λ i (j) (1). (3.2) Da die Randbedingung ϕ nicht von den Variablen ξ j abhängt, gilt ferner λ ξ (j) () =, λ ξ (j) (1) =, (3.21) für j = 1,...,N. Stellt man keine Bedingungen an den Zustand in den inneren Punkten t j, j = 1,...,N 1, d.h. falls gilt I j = { }, j = 1,...,N 1, so lässt sich aus den Transversalitätsbedingungen die Stetigkeit der adjungierten Variablen in den Schaltpunkten t j folgern. Da für einen autonomen Prozess H(y(s),λ(s),v(s)) = const., s [,1] gilt, sind auch die einzelnen Komponenten der gesplitteten Hamilton-Funktion konstant: H (j) (x (j) (s),λ (j) (s),u (j) (s)) = const., s [,1]. Mithilfe der adjungierten DGL = H (j) und den Transversalitätsbedingungen (3.21) folgert man weiter λ (j) ξ H (j) (x (j) (s),λ (j) (s),u (j) (s)) =, s [,1], j = 1,...,N. (3.22) 44

57 3.2: Notwendige Optimalitätsbedingungen erster Ordnung Unter der Annahme eines offenen Steuerbereichs U des Ausgangsproblems, bspw. U = R m, gilt schließlich aufgrund der Minimumbedingung H u (j) (j) (x (j) (s),λ (j) (s),u (j) (s)) =, s [,1], j = 1,...,N. 45

58 Kapitel 3: Optimale Steuerung von Multiprozessen 46

59 4 Grundlagen der Sensitivitätsanalyse Oftmals basiert das zugrundeliegende Modell eines optimalen Steuerprozesses auf gewissen Parametern, deren Werte man mittels Messungen, Hochrechnungen oder gar Schätzungen bestimmen muss. Die Genauigkeit dieser Paramter ist daher nur beschränkt. Man interessiert sich nun für die Fragestellung, welche Auswirkungen geringfügige Änderungen einzelner Parameter auf die optimale Lösung des Steuerprozesses haben, d.h. man untersucht, wie empfindlich die zu einem festen Parameter berechnete Lösung auf Störungen reagiert. Wünschenswert ist natürlich eine geringe Abhängigkeit von den Werten der Modellparameter. Sollte dies jedoch nicht der Fall sein, so empfiehlt sich für die entsprechenden Parameter mit hohen Sensitivitätsableitungen (s.u.) eine aufwendigere Rechnung als für solche mit kleineren Auswirkungen auf die Lösung. Eine kurze Einführung in dieses umfangreiche Gebiet erfordert zunächst die Definition eines nichtlinearen Optimierungsproblems mit Störparametern. Anschließend werden der Sensitivitätssatz und die Sensitivitätsdifferentiale angegeben, ehe der Bezug der endlichdimensionalen Optimierung zur Theorie optimaler Steuerprozesse hergestellt wird. 4.1 Das parametrische Standardproblem der nichtlinearen Optimierung Zunächst sollen in aller Kürze die wichtigsten Definitionen und Begriffe bezüglich des Standardproblems der nichtlinearen Optimierung zusammengetragen werden. Eine umfangreiche Einführung in dieses Gebiet wird für die weiteren Überlegungen nicht benötigt und würde auch nicht in den Rahmen dieser Arbeit passen. Definition 4.1 (Das nichtlineare Optimierungsproblem) Seien f : R n R und g : R n R m zweimal stetig differenzierbare Funktionen. Das Problem 47

60 Kapitel 4: Grundlagen der Sensitivitätsanalyse Minimiere f(x) unter g i (x), i = 1,...,k, g i (x) =, i = k + 1,...,m, (4.1) heißt Standardproblem der nichtlinearen Optimierung. Definition 4.2 (Zulässige Menge) Zu einem Problem (4.1) heißt die Menge S := {x R n g i (x), i = 1,...,k, g i (x) =, i = k + 1,...,m} (4.2) die zulässige Menge. Das Lösen eines nichtlinearen Optimierungsproblems in der Standardform besteht also in der Aufgabe, ein Minimum x S R n der Funktion f zu finden. Definition 4.3 (Das parametrische Optimierungsproblem) Durch Modifikation des Problems (4.1) erhält man ein parameterabhängiges Optimierungsproblem. Sei p R q und f : R n R q R, g : R n R q R m zweimal stetig differenzierbar. 1. Das Problem P(p) Minimiere f(x, p) unter g i (x,p), i = 1,...,k, g i (x,p) =, i = k + 1,...,m, (4.3) heißt parametrisches Standardproblem der nichtlinearen Optimierung. 2. Der Parameter p = (p 1,...,p q ) T R q heißt Störparameter. 3. Das zu einem festen Parameter p R q, dem sogenannten nominellen oder Referenz-Parameter, gehörende Optimierungsproblem P(p ) heißt ungestörtes, nominelles oder Referenz-Problem. 4. Die zulässige Menge S(p) von P(p) ist analog zu (4.2) definiert durch S(p) := {x R n g i (x,p), i = 1,...,k, g i (x,p) =, i = k + 1,...,m}. (4.4) 48

61 4.1: Das parametrische Standardproblem der nichtlinearen Optimierung 5. Als aktive Indizes der Ungleichungsrestriktionen eines Punktes x S(p ) bezeichnet man die Indexmenge I( x) = {i {1,...,k} g i ( x,p ) = }. (4.5) Ferner spielt die Menge J( x) = I( x) {k + 1,...,m} eine Rolle. Definition 4.4 (Lagrange-Funktion) Man ordnet einem Optimierungsproblem (4.1) die Lagrange-Funktion m L(x,λ) := f(x) + λg(x) = f(x) + λ i g i (x) (4.6) zu. Die Komponenten λ i, i = 1,...,m, des Zeilenvektors λ R m heißen Lagrange-Multiplikatoren. Bei der Formulierung des Sensitivitätssatzes spielen die hinreichenden Optimalitätsbedingungen zweiter Ordnung eine wichtige Rolle. Ich gebe an dieser Stelle die notwendigen und hinreichenden Kriterien für das Standardproblem an; Beweise zu diesen Aussagen findet man in [ALT 22]. i=1 Satz 4.1 (Notwendige Optimalitätsbedingungen) 1 Sei x R n eine lokale Minimalstelle des Problems (4.1). Außerdem sei der Punkt x normal, d.h. die Gradienten g i ( x), i J( x), seien linear unabhängig. Dann existiert ein Zeilenvektor λ = ( λ 1,..., λ m ) R m, so dass folgende Aussagen gelten: 1. L x ( x, λ) = f ( x) + λg ( x) = f ( x) + m i=1 λ i g i ( x) =, (4.7) 2. λi = für i J( x), (4.8) 3. λi für i I( x). (4.9) Definition 4.5 (Strikte Komplementarität) Seien λ 1,..., λ m die Lagrange-Multiplikatoren zu x S. Man sagt, dass die Bedingung der strikten Komplementarität erfüllt ist, wenn gilt λ i > i I( x). (4.1) 1 Oft als KKT-Bedingungen zu finden (Karush, Kuhn,Tucker). 49

62 Kapitel 4: Grundlagen der Sensitivitätsanalyse Satz 4.2 (Hinreichende Optimalitätsbedingungen 2. Ordnung) Der Punkt x R n sei normal und es gebe einen Zeilenvektor λ = ( λ 1,..., λ m ) R m, so dass die KKT-Bedingungen (4.7), (4.8) und (4.9) erfüllt sind. Zusätzlich sei die strikte Komplementaritätsbedingung (4.1) erfüllt und es gelte v T L xx ( x, λ)v > v R n mit g i ( x)v =, i J( x). (4.11) Dann gibt es Konstanten c > und α > mit f(x) f( x) + c x x 2 für alle x S mit x x α. (4.12) Insbesondere ist x strenge lokale Minimalstelle von (4.1). Abschließend sei hier noch eines der wichtigsten Hilfsmittel aus der Analysis, der Satz über implizite Funktionen aufgeführt, welcher sowohl im folgenden Abschnitt bei der Berechnung der Sensitivitätsdifferentiale als auch im Kapitel über reguläre Hamilton-Probleme im Zusammenhang mit der strengen Legendre-Clebsch-Bedingung eine zentrale Rolle spielt. Satz 4.3 (Satz über implizite Funktionen) Sei F : R n R k R n eine stetig differenzierbare Abbildung und (x,y ) R n R k ein Punkt mit F(x,y ) =. Die n n-jacobi-matrix F x (x,y ) sei regulär. Dann gibt es Umgebungen U von y und V von x und eine stetig differenzierbare Abbildung x : U V mit x(y ) = x und F(x(y),y) =, y U. Für die Ableitung von x gilt x (y) = F x (x(y),y) 1 F y (x(y),y). 4.2 Sensitivitätssatz und Sensitivitätsdifferentiale Nachdem nun die Grundlagen für parameterabhängige nichtlineare Optimierungsprobleme und die notwendigen und hinreichenden Bedingungen für das ungestörte Problem P(p ) vorgestellt wurden, geht es nun um die Untersuchung der gestörten Probleme P(p). Insbesondere interessiert man sich dafür, wie sich die optimale Lösung x des ungestörten Problems P(p ) in einer Umgebung des nominellen Parameters p verhält und wie empfindlich sie auf Störungen reagiert. Folgender Satz zeigt, dass unter bestimmten Voraussetzungen die Lösung x(p) und der zugehörige Lagrange-Multiplikator λ(p) vom Problem P(p) in einer gewissen Umgebung von p stetig differenzierbar vom Parameter p abhängen. 5

63 4.2: Sensitivitätssatz und Sensitivitätsdifferentiale Satz 4.4 (Der Sensitivitätssatz) Sei P(p ) das ungestörte Optimierungsproblem zu dem nominellen Parameter p R q und x S( x) eine lokale Minimalstelle von P(p ). Weiter sei der Punkt x normal und es gebe Lagrange- Multiplikatoren λ i, i J( x), so dass die KKT-Bedingungen (4.7) - (4.9) sowie die hinreichenden Optimalitätsbedingungen aus Satz 4.2 erfüllt sind. Dann gibt es eine Umgebung P R q von p und stetig differenzierbare Abbildungen x : P R n, λ i : P R, i J( x), so dass folgende Aussagen gelten: 1. x(p ) = x, λ i (p ) = λ i, i J( x) 2. Für p P erfüllen x(p) und λ i (p), i J( x) die hinreichenden Optimalitätsbedingungen 4.2 für das gestörte Problem P(p). Insbesondere ist x(p) strenge lokale Minimalstelle von P(p). Einen Beweis dieses Satzes findet man wiederum in [ALT 22]. Die grundlegende Beweisidee basiert darauf, dass man für das reduzierte Lagrange-System (zur Aufstellung dieses Systems beachte man die Eigenschaften (4.8) und (4.1)) ( ) Lx (x,ν,p) T F(x,ν,p) := = (4.13) G(x, p) mit L(x,ν,p) = f(x,p) + ν G(x,p) = f(x,p) + i J( x) λ i g i (x,p), G(x,p) = (g i (x,p)) i J( x) die Voraussetzungen vom Satz über Implizite Funktionen nachrechnet und mithilfe dessen dann auf die lokale Existenz der Funktion x(p) und λ(p) schließen kann. Der Satz 4.3 liefert neben dieser Erkenntnis zusätzlich eine Formel für die Ableitungen der implizit definierten Funktionen x(p) und λ(p), was einem in diesem Zusammenhang die Bildung der sogenannten Sensitivitäts-Differentiale ermöglicht. 51

64 Kapitel 4: Grundlagen der Sensitivitätsanalyse Satz 4.5 (Sensitivitäten und Schattenpreisformel) Für die im Sensitivitätssatz 4.4 auftretenden Funktionen x : P R n und λ i : P R, i J( x), gelten folgende Aussagen: 1. Mittels des Satzes über Implizite Funktionen und der Bezeichnungen ( ) ( Lxx ( x, ν,p ) G x ( x,p ) T Lxp ( x, ν,p ) A :=, B := G x ( x,p ) G p ( x,p ) ) berechnet man die Sensitivitäts-Differentiale ( dx dp (p ) ) dν dp (p = A 1 ) T B (4.14) 2. Es gilt die Verallgemeinerte Schattenpreisformel d dp f(x(p),p) p=p = L p ( x, ν,p ) (4.15) Die Sensitivitäts-Differentiale finden Anwendung in der Echzeit-Optimierung, bei der es darum geht, sehr schnell auf Störungen in den Systemparametern reagieren zu können und in Echtzeit eine approximierte Lösung des gestörten Problems zu berechnen. Dazu berechnet man im Voraus offline die optimale Lösung ( x, ν) samt Sensitivitäts-Differentiale (4.14) des ungestörten Problems P(p ), um dann mittels einfacher Matrizenmultiplikation online die Taylor- Approximation erster Ordnung von (x(p),ν(p)) durchzuführen: ( ) ( ) ( x(p) x dx dp + (p ) ) ν(p) T ν T dν dp (p ) T 4.3 Anwendung auf Optimale Steuerprozesse (4.16) In Kapitel 5 werden einige Sensitivitätsableitungen des dort diskutierten Steuerprozesses mittels der Fortran-Routine NUDOCCCS berechnet, um die Anfälligkeit auf Störungen in den Modellparametern zu untersuchen. Daher bleibt noch zu klären, wie man die vorgestellte Sensitivitätsanalyse für endlichdimensionale nichtlineare Optimierungsprobleme auf optimale Steuerprozesse anwendet. Sobald man einen kontinuierlichen Prozess jeglicher Form mithilfe eines Computerprogrammes bearbeiten möchte, spielt stets die Diskretisierung des Problems eine wichtige Rolle (ein Rechner hat immer eine begrenzte Speicherkapazität, d.h. man kann einen kontinuierlichen Prozess nur in diskreter Form 52

65 4.3: Anwendung auf Optimale Steuerprozesse speichern und verarbeiten). Zur numerischen Lösung eines Steuerprozesses gibt es verschiedene Ansätze, die sich im wesentlichen in zwei Kategorien unterteilen lassen: die direkten und die indirekten Verfahren. Ich gehe an dieser Stelle ausschließlich auf direkte Verfahren ein. Für diese Arbeit wurden die meisten Berechnungen mit dem Programm AMPL/IPOPT [FOURER 23] durchgeführt, welches auf Basis der vollen Diskretisierung arbeitet. Einen Steuerprozess in der Standardform (1.7) diskretisiert man hierzu wie folgt. Man wähle ein äquidistantes Zeitgitter = t < t 1 < < t N 1 < t N = T (4.17) mit Schrittweite h = T N, d.h. t i = ih. Zustand x(t i ) und Steuerung u(t i ) werden an den Gitterpunkten durch die Variablen x i = x(t i ), u i = u(t i ), i =,1,...,N, (4.18) beschrieben. Die einfachste Diskretisierung der Dynamik erfolgt mit dem Euler- Verfahren. Mit der Annahme, dass das Zielfunktional in Mayer-Form gegeben ist, lautet der diskretisierte Steuerprozess dann Minimiere g(x N ) unter x i+1 x i = h f(t i,x i,u i ), i =,...,N 1, x = x a (Anfangsbedingung), (4.19) ψ(x N ) =, u i U, i =,...,N. Dies ist ein endlich-dimensionales Optimierungsproblem, auf welches sich die Techniken der vorangehenden Abschnitte anwenden lassen. Eine umfassende Vorstellung verschiedener Diskretisierungsmöglichkeiten und Lösungsmethoden optimaler Steuerprozesse mit direkten Verfahren findet man in [BÜSKENS 1993]. Als weiterführende Literatur zum Thema Sensitivitätsanalyse wird auf [FIACCO 1976], [BÜSKENS 1998] und [BÜSKENS 21] verwiesen. 53

66 Kapitel 4: Grundlagen der Sensitivitätsanalyse 54

67 5 Die optimale Steuerung eines mechatronischen Modells: Der Tauchspulmotor 5.1 Motivation In diesem Kapitel wird die Theorie der vorangegangen Abschnitte auf ein mechatronisches Hochfrequenz-Bauteil, den sogenannten Tauchspulmotor, angewendet. Zunächst werde ich die Modellierung dieses Bauteils beschreiben, einen kleinen Einblick in die physikalischen Abläufe der beteiligten Komponenten geben und das Zusammenspiel dieser Einzelkomponenten im Hinblick auf die Dynamik unseres optimalen Steuerprozesses erläutern. Die Idee zu diesem Thema entstand aus einer Zusammenarbeit von Prof. Dr. Maurer mit Prof. Dr.-Ing. Zirn 1 durch die Fragestellung, inwieweit sich mathematische Optimierungsmethoden auf dem Gebiet der mechatronischen Bauelemente anwenden lassen. Die bisherigen Untersuchungen des Tauchspulmotors an der FH Friedberg-Gießen erfolgten überwiegend auf der Grundlage des Simulationswerkzeuges MATLAB R /Simulink R und nicht mithilfe von Resultaten der mathematischen Theorie optimaler Steuerprozesse, so dass sich hier - wie bei so zahlreichen Phänomenen in Industrie, Entwicklung und Wirtschaft - ein großes Potential zur praktischen Anwendung der Optimierung aufzeigte. Wegen seines hauptsächlichen Einsatzgebietes im Bereich der Schallwandlertechnik als elektrodynamische Antriebseinheit in Lautsprechern ist der Tauchspulmotor auch unter dem Begriff voice coil-motor 2 geläufig. Die Aufgabe eines voice coil-motors ist die hochfrequente Umwandlung von elektrischen Impulsen in mechanische Schwingungen, welche über die Lautsprechermembran akustische Schallwellen erzeugen. Der voice coil-motor besteht aus einer beweglichen Spule, auf der ein dünner metallischer Draht gewickelt ist. Diese Spule ist 1 Fachhochschule Gießen-Friedberg, Fachbereich Elektro- und Informationstechnik 2 voice coil = deutsch: Schwingspule 55

68 Kapitel 5: Die optimale Steuerung eines mechatronischen Modells Abb. 5.1: Prinzipieller Aufbau eines Lautsprechers von einem Permanentmagneten umgeben und befindet sich in dessen Magnetfeld. Durch Anlegen einer Spannung U an den Enden des Wicklungsdrahtes entsteht nach den Gesetzen der elektromagnetischen Induktion ein Magnetfeld, welches mit dem Feld des Permanentmagneten in Wechselwirkung tritt und die Spule mitsamt der an dieser befestigten Membraneinheit des Lautsprechers in Bewegung versetzt (vgl. Abbildung 5.1). Die Membran erzeugt dadurch Schallwellen, welche der Mensch akustisch wahrnehmen kann, sofern die Frequenz dieser Wellen in einem hörbaren Bereich liegen. Ein weiteres Einsatzgebiet des Tauchspulmotors liegt im Werkzeugmaschinenbereich. So wird er beispielsweise als Vorschubantrieb für Hochfrequenzspindeln von Leiterplattenbohrmaschinen eingesetzt. Abbildungen 5.2 und 5.3 zeigen solche Geräte. Anzumerken ist hierbei, dass bei manchen Maschinen der Permanentmagnet das bewegliche Bauteil darstellt und von einer fest installierten Spule umgeben wird. Die Wirkungsprinzipien entsprechen aber weitestgehend denen aus der Lautsprechertechnik. Ferner sind Anwendungsmöglichkeiten durch die optische Industrie gegeben, wo diese Antriebstechnik vor allem bei hochdynamischen Applikationen wie dem optischen Scannen, Fokussieren oder Stabilisieren eingesetzt wird. Besonders wegen der sehr schnellen Bewegungen der Spule wird der Tauchspulmotor dort alternativen Techniken vorgezogen. Oft wird der Motor innerhalb eines Regelungskreislaufs mit Positionsbestimmung eingesetzt und ist deshalb auch unter der Bezeichnung voice coil actuator 56

Zeitoptimale und singuläre Steuerungen in einem mechatronischen System mit Coulomb-Reibung

Zeitoptimale und singuläre Steuerungen in einem mechatronischen System mit Coulomb-Reibung Zeitoptimale und singuläre Steuerungen in einem mechatronischen System mit Coulomb-Reibung Diplomarbeit Andreas Ott 27. Juni 27 Diplomarbeitsbetreuer: Prof. Dr. Helmut Maurer Institut für Numerische und

Mehr

Optimale Steuerung eines linearen Servomotors

Optimale Steuerung eines linearen Servomotors mit Coulomb-Reibung und Zustandsbeschränkungen Bahne Christiansen, Helmut Maurer Oliver Zirn Universität Münster Institut für Numerische Mathematik University of Applied Sciences Giessen Kleinwalsertal,

Mehr

14. Das Minimumprinzip

14. Das Minimumprinzip H.J. Oberle Variationsrechnung u. Optimale Steuerung SoSe 2008 14. Das Minimumprinzip In diesem Abschnitt behandeln wir die Idee der dynamischen Programmierung, die auf Bellmann 31 (1957) zurückgeht und

Mehr

Diplomarbeit. Nadja Balzer. Betreuer: Prof. Dr. H. Maurer. Westfälische Wilhelms-Universität Münster

Diplomarbeit. Nadja Balzer. Betreuer: Prof. Dr. H. Maurer. Westfälische Wilhelms-Universität Münster Westfälische Wilhelms-Universität Münster Institut für numerische und instrumentelle Mathematik Diplomarbeit Optimale Steuerung ökonomischer Prozesse am Beispiel eines komplexen Unternehmensmodells mit

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 19 8. Juli 2010 Kapitel 14. Gewöhnliche Differentialgleichungen zweiter Ordnung 14.1 Systeme gewöhnlicher linearer Differentialgleichungen erster

Mehr

Hinreichende Bedingungen für Optimalsteuerungsprobleme mit nichtglatten Zuständen

Hinreichende Bedingungen für Optimalsteuerungsprobleme mit nichtglatten Zuständen Hinreichende Bedingungen für Optimalsteuerungsprobleme mit nichtglatten Zuständen Ricki Rosendahl Schwerpunkt Optimierung und Approximation Department Mathematik - Universität Hamburg Hamburg, 10. April

Mehr

2. Quasilineare PDG erster Ordnung

2. Quasilineare PDG erster Ordnung H.J. Oberle Differentialgleichungen II SoSe 2013 2. Quasilineare PDG erster Ordnung Eine skalare PDG erster Ordnung hat die allgemeine Form F (x, u(x), u x (x)) = 0. (2.1) Dabei ist u : R n G R die gesuchte

Mehr

Skalare Differenzialgleichungen

Skalare Differenzialgleichungen 3 Skalare Differenzialgleichungen Differenzialgleichungen stellen eine Beziehung her zwischen einer oder mehreren Funktionen und ihren Ableitungen. Da Ableitungen Veränderungen beschreiben, modellieren

Mehr

Extremalprobleme mit Nebenbedingungen

Extremalprobleme mit Nebenbedingungen Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des

Mehr

12 Gewöhnliche Differentialgleichungen

12 Gewöhnliche Differentialgleichungen 2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

Die Forderungen 1) und 2) sind sowohl mathematisch als auch physikalisch vernünftig und einleuchtend. 3) ist eine Forderung über die

Die Forderungen 1) und 2) sind sowohl mathematisch als auch physikalisch vernünftig und einleuchtend. 3) ist eine Forderung über die Kapitel II Elementares zu den Partiellen Differentialgleichungen 4 Sachgemäßheit und Superposition Definition 4.1 Sachgemäßheit Eine ARWA, AWA oder RWA heißt sachgemäß, falls 1) die Aufgabe eine Lösung

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

Hamilton-Systeme. J. Struckmeier

Hamilton-Systeme. J. Struckmeier Invarianten für zeitabhängige Hamilton-Systeme J. Struckmeier Vortrag im Rahmen des Winterseminars des Instituts für Angewandte Physik der Johann-Wolfgang-Goethe-Universität Frankfurt a.m. Hirschegg, 04.

Mehr

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Wie in der reellen Analysis üblich notiert man Folgen f in der Form 2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches

Mehr

7 Anwendungen der Linearen Algebra

7 Anwendungen der Linearen Algebra 7 Anwenungen er Linearen Algebra 7.1 Extremwertaufgaben mit Nebenbeingungen Bemerkung 7.1. Wir behaneln as Problem: Gegeben ist eine zweimal stetig ifferenzierbare Funktion f : R n R un ein stetig ifferenzierbares

Mehr

5. Die eindimensionale Wellengleichung

5. Die eindimensionale Wellengleichung H.J. Oberle Differentialgleichungen II SoSe 2013 5. Die eindimensionale Wellengleichung Wir suchen Lösungen u(x, t) der eindimensionale Wellengleichung u t t c 2 u xx = 0, x R, t 0, (5.1) wobei die Wellengeschwindigkeit

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

9 Differentialrechnung für Funktionen in n Variablen

9 Differentialrechnung für Funktionen in n Variablen $Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr

Finite Elemente Methode für elliptische Differentialgleichungen

Finite Elemente Methode für elliptische Differentialgleichungen Finite Elemente Methode für elliptische Differentialgleichungen Michael Pokojovy 8. Oktober 2007 Das Ritzsche Verfahren Sei R n ein beschränktes offenes Gebiet mit abschnittsweise glattem Rand S. Betrachte

Mehr

Lineare DGL-Systeme 1. Ordnung

Lineare DGL-Systeme 1. Ordnung Lineare DGL-Systeme 1. Ordnung Eine Reihe von naturwissenschaftlichen Problemstellungen, wie z. B. Feder- Dämpfer-Systeme der Mechanik oder Kirchhoffsche Netzwerke der Elektrotechnik, lassen sich durch

Mehr

2.4 Verallgemeinerte Ungleichungen

2.4 Verallgemeinerte Ungleichungen 2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

4.4 Lokale Extrema und die Hessesche Form

4.4 Lokale Extrema und die Hessesche Form 74 Kapitel 4 Differentialrechnung in mehreren Variablen 44 Lokale Extrema und die Hessesche Form Sei jetzt wieder U R n offen und f:u R eine Funktion Unter einem lokalen Extremum der Funktion f verstehen

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

23. DIFFERENTIALRECHNUNG VON FUNKTIONEN VON MEHREREN VARIABLEN

23. DIFFERENTIALRECHNUNG VON FUNKTIONEN VON MEHREREN VARIABLEN 204 Dieses Skript ist ein Auszug mit Lücken aus Einführung in die mathematische Behandlung der Naturwissenschaften I von Hans Heiner Storrer, Birkhäuser Skripten. Als StudentIn sollten Sie das Buch auch

Mehr

Übungsskript Regelungstechnik 2

Übungsskript Regelungstechnik 2 Seite 1 von 11 Universität Ulm, Institut für Mess-, Regel- und Mikrotechnik Prof. Dr.-Ing. Klaus Dietmayer / Seite 2 von 11 Aufgabe 1 : In dieser Aufgabe sollen zeitdiskrete Systeme untersucht werden.

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Flüsse und Vektorfelder

Flüsse und Vektorfelder Flüsse und Vektorfelder Def. Ein Vektorfeld auf U R n ist eine glatte (vektorwertige) Abbildung V : U R n. Bemerkung. Wir werden später die Transformationsgesetze für den Koordinatenwechsel bei Vektorfeldern

Mehr

Nichtlineare Optimierung

Nichtlineare Optimierung Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, 07. 14. März 2009 Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung

Mehr

Exakte Differentialgleichungen

Exakte Differentialgleichungen Kapitel 4 Exakte Differentialgleichungen 4.1 Kurvenscharen Sei D R 2 ein offenes und zusammenhängendes Gebiet. Dann kann man zu jeder D einfach überdeckenden Kurvenschar eine Differentialgleichung erster

Mehr

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte Universität München 22. Juli 29 Topologie und Differentialrechnung mehrerer Veränderlicher, SS 29 Modulprüfung/Abschlussklausur Name: Aufgabe 2 3 4 Punkte Gesamtpunktzahl: Gesamturteil: Schreiben Sie unbedingt

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Staatsexamen Herbst 2017 Differential- und Integralrechnung, Thema I

Staatsexamen Herbst 2017 Differential- und Integralrechnung, Thema I Staatsexamen Herbst 17 Differential- und Integralrechnung, Thema I 1. a) Die Aussage ist wahr! Sei s R der Reihenwert der Reihe k=1 Da a n = s n s n 1 für n, ist also b) Die Aussage ist falsch! a k, also

Mehr

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN 8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es

Mehr

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung) (3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. März 2016 Nichtlineare Gleichungen, Fixpunkt-Iterationen 1 Wiederholung Aufgabentypen

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

tun, sondern nur mit der Reaktion auf verschiedene Anfangswerte.

tun, sondern nur mit der Reaktion auf verschiedene Anfangswerte. 2.3 Stabilität Eine wichtige Rolle spielt das Stabilitätsverhalten dynamischer Systeme. Wie üblich sei Φ die Fundamentalmatrix des linearen Systems ẋ = A(t)x + u. Im weiteren sei t fixiert, später wird

Mehr

Lagrange-Formalismus

Lagrange-Formalismus KAPITEL II Lagrange-Formalismus Die im letzten Kapitel dargelegte Formulierung der Mechanik nach Newton ist zwar sehr intuitiv: man zählt alle auf das zu studierende System wirkenden Kräfte auf, schreibt

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Numerik gewöhnlicher Differentialgleichungen. Prof. Dr. Guido Kanschat

Numerik gewöhnlicher Differentialgleichungen. Prof. Dr. Guido Kanschat Numerik gewöhnlicher Differentialgleichungen Prof. Dr. Guido Kanschat 19. Juni 2013 Vorbemerkungen Bei diesen Blättern handelt es sich zur Zeit nur um eine begleitende Ergänzung des Vorlesungsskriptes

Mehr

X.4 Elektromagnetische Wellen im Vakuum

X.4 Elektromagnetische Wellen im Vakuum X.4 Elektromagnetische Wellen im Vakuum 173 X.4 Elektromagnetische Wellen im Vakuum In Abwesenheit von Quellen, ρ el. = 0 j el. = 0, nehmen die Bewegungsgleichungen (X.9) (X.11) für die elektromagnetischen

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Algebraische Kurven. Vorlesung 25

Algebraische Kurven. Vorlesung 25 Prof. Dr. H. Brenner Osnabrück SS 2012 Algebraische Kurven Vorlesung 25 Lösung in Potenzreihen für algebraische Kurven Sei F 0 ein Polynom, das die ebene algebraische Kurve C beschreibe, und sei P = (0,0)

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Optimale Steuerung. Karoline Pelka, Christian Schmidt, Christoph Große Kracht. 13. Dezember 2012

Optimale Steuerung. Karoline Pelka, Christian Schmidt, Christoph Große Kracht. 13. Dezember 2012 13. Dezember 212 1 Einleitung 2 3 4 5 6 Bang-Bang-Steuerung Berücksichtigung der Steuerung Minimierung des Steueraufwandes 7 Einleitung Ende des 17. Jahrhunderts Variationsrechnung (Brachistochrone) Einleitung

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

Kapitel 15. Kontrolltheorie. Josef Leydold Mathematik für VW WS 2017/18 15 Kontrolltheorie 1 / 19. T (1 s(t)) f (k(t)) dt

Kapitel 15. Kontrolltheorie. Josef Leydold Mathematik für VW WS 2017/18 15 Kontrolltheorie 1 / 19. T (1 s(t)) f (k(t)) dt Kapitel 15 Kontrolltheorie Josef Leydold Mathematik für VW WS 217/18 15 Kontrolltheorie 1 / 19 Wirtschaftswachstum Aufgabe: Maximiere Konsum im Zeitraum [, T]: max s(t) 1 (1 s(t)) f (k(t)) dt f (k)...

Mehr

C7 Differentgleichungen (DG) C7.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2. Gesetz: Ort: Geschwindigkeit:

C7 Differentgleichungen (DG) C7.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2. Gesetz: Ort: Geschwindigkeit: C7 Differentgleichungen (DG) C7.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2. Gesetz: (enthalten Ableitungen der gesuchten Funktionen) [Stoffgliederung im Skript für Kapitel

Mehr

Mathematik für Anwender II

Mathematik für Anwender II Prof. Dr. H. Brenner Osnabrück SS 2012 Mathematik für Anwender II Vorlesung 49 Zu einer reellwertigen Funktion Extrema auf einer offenen Menge G R n interessieren wir uns, wie schon bei einem eindimensionalen

Mehr

6.1 Zerlegungen Ober- und Unterintegrale Existenz des Integrals

6.1 Zerlegungen Ober- und Unterintegrale Existenz des Integrals Kapitel 6 Das Riemann-Integral In diesem Abschnitt wollen wir einen Integralbegriff einführen. Dieser Integralbegriff geht auf Riemann 1 zurück und beruht auf einer naheliegenden Anschauung. Es wird sich

Mehr

Differential- und Integralrechnung

Differential- und Integralrechnung Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik

Mehr

Floquet-Theorie IV. 1 Hills Gleichung

Floquet-Theorie IV. 1 Hills Gleichung Vortrag zum Seminar Gewöhnliche Differentialgleichungen, 08.11.2011 Tobias Roidl Dieser Vortrag befasst sich mit der Hills Gleichung und gibt eine Einführung in die Periodischen Orbits von linearen Systemen.

Mehr

9. Polynom- und Potenzreihenringe

9. Polynom- und Potenzreihenringe 64 Andreas Gathmann 9. Polynom- und Potenzreihenringe Bevor wir mit der allgemeinen Untersuchung von Ringen fortfahren, wollen wir in diesem Kapitel kurz zwei sehr wichtige weitere Beispiele von Ringen

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Vorlesung Variationsrechnung und optimale Steuerung. 6. Foliensatz, Version vom Michael Karow

Vorlesung Variationsrechnung und optimale Steuerung. 6. Foliensatz, Version vom Michael Karow Vorlesung Variationsrechnung und optimale Steuerung 6. Foliensatz, Version vom 9.7.214 Michael Karow Thema der nächsten Vorlesungen: Zeitoptimale -Steuerung für lineare zeitinvariante DGL bei beschränkter

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

Nachklausur Analysis 2

Nachklausur Analysis 2 Nachklausur Analysis 2. a) Wie ist der Grenzwert einer Folge in einem metrischen Raum definiert? Antwort: Se (a n ) n N eine Folge in dem metrischen Raum (M, d). Diese Folge besitzt den Grenzwert g M,

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

3. Mai Zusammenfassung. g x. x i (x).

3. Mai Zusammenfassung. g x. x i (x). 3. Mai 2013 Zusammenfassung 1 Hauptsatz Satz 1.1 Sei F C 1 (D) für eine offene Teilmenge D von R q+1 = R q R. Für (x 0, u 0 ) D gelte F (x 0, u 0 ) = 0, (x 0, u 0 ) 0. Dann gibt es eine Umgebung V von

Mehr

4.5 Lokale Extrema und die Hessesche Form

4.5 Lokale Extrema und die Hessesche Form 80 Kapitel 4. Differentialrechnung in mehreren Variablen 4.5 Lokale Extrema und die Hessesche Form Sei ab jetzt U R n offen und f:u R eine Funktion. Unter einem lokalen Extremum der Funktion f verstehen

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 89

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 89 9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 89 Beweis. Der Beweis erfolgt durch vollständige Induktion. Angenommen wir hätten den Satz für k 1 gezeigt. Dann ist wegen auch Damit ist f(g(y), y) = 0 0 = D y

Mehr

Schriftliche Prüfung aus Control Systems 1 am

Schriftliche Prüfung aus Control Systems 1 am TU Graz, Institut für Regelungs- und Automatisierungstechnik 1 Schriftliche Prüfung aus Control Systems 1 am 24.11.2014 Name / Vorname(n): Kennzahl / Matrikel-Nummer: Prüfungsmodus: O VO+UE (TM) O VO (BM)

Mehr

Kapitel 8: Gewöhnliche Differentialgleichungen 8.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2.

Kapitel 8: Gewöhnliche Differentialgleichungen 8.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2. Kapitel 8: Gewöhnliche Differentialgleichungen 8.1 Definition, Existenz, Eindeutigkeit von Lösungen Motivation: z.b. Newton 2. Gesetz: (enthalten Ableitungen der gesuchten Funktionen) Geschwindigkeit:

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 2. Juli 2018 1/1 Wir geben einige wesentliche Sätze über bestimmte Integrale an, deren Beweise man in den Standardlehrbüchern der Analysis findet.

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Probeklausur zur Analysis 2, SoSe 2017

Probeklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen

Mehr

3. Normalform linearer PDG zweiter Ordnung

3. Normalform linearer PDG zweiter Ordnung H.J. Oberle Differentialgleichungen II SoSe 2013 3. Normalform linearer PDG zweiter Ordnung Wir beschreiben in diesem Abschnitt Verfahren zur Transformation linearer oder auch halblinearer PDG zweiter

Mehr

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016 Übungen zu Einführung in die Numerische Mathematik (VE) Sommersemester 6 Prof. Dr. Martin Rumpf Pascal Huber Sascha Tölkes Übungsblatt 8 Abgabe:.6.6 Aufgabe 5 (Elliptisches Randwertproblem auf einem Ring)

Mehr

1 Einführung, Terminologie und Einteilung

1 Einführung, Terminologie und Einteilung Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen

Mehr

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung Kapitel 3 Lineare Abbildungen Lineare Abbildungen sind eine natürliche Klasse von Abbildungen zwischen zwei Vektorräumen, denn sie vertragen sich per definitionem mit der Struktur linearer Räume Viele

Mehr

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel

Mehr

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie Institut für Elektrotechnik und Informationstechnik Aufgabensammlung zur Systemtheorie Prof. Dr. techn. F. Gausch Dipl.-Ing. C. Balewski Dipl.-Ing. R. Besrat 05.04.2013 Übungsaufgaben zur Systemtheorie

Mehr

Die Prädikatenlogik erster Stufe: Syntax und Semantik

Die Prädikatenlogik erster Stufe: Syntax und Semantik Die Prädikatenlogik erster Stufe: Syntax und Semantik 1 Mathematische Strukturen und deren Typen Definition 1.1 Eine Struktur A ist ein 4-Tupel A = (A; (R A i i I); (f A j j J); (c A k k K)) wobei I, J,

Mehr

Mathematik für Anwender II

Mathematik für Anwender II Prof. Dr. H. Brenner Osnabrück SS 2012 Mathematik für Anwender II Vorlesung 37 Wir haben schon im ersten Semester gewöhnliche Differentialgleichungen samt einiger Lösungsverfahren besprochen. Dort ging

Mehr

Beschränktheit, Monotonie & Symmetrie

Beschränktheit, Monotonie & Symmetrie Beschränktheit, Monotonie & Symmetrie ein Referat Dies ist eine Beilage zum Gruppen-SOL - Projekt Potenz- & Exponentialfunktionen Ronald Balestra CH - 8046 Zürich www.ronaldbalestra.ch November 2015 Inhaltsverzeichnis

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

6. Lineare DGL-Systeme erster Ordnung

6. Lineare DGL-Systeme erster Ordnung HJ Oberle Differentialgleichungen I WiSe 22/3 6 Lineare DGL-Systeme erster Ordnung A Allgemeines Wir betrachten ein lineares DGL System erster Ordnung y (t = A(t y(t + b(t (6 und setzen voraus, dass die

Mehr

D-MAVT/D-MATL Analysis I HS 2017 Dr. Andreas Steiger. Lösung - Serie 6. (n+1)!. Daraus folgt, dass e 1/x < (n+

D-MAVT/D-MATL Analysis I HS 2017 Dr. Andreas Steiger. Lösung - Serie 6. (n+1)!. Daraus folgt, dass e 1/x < (n+ D-MAVT/D-MATL Analysis I HS 2017 Dr. Andreas Steiger Lösung - Serie 6 1. MC-Aufgaben (Online-Abgabe) 1. Für alle ganzen Zahlen n 1 gilt... (a) e 1/x = o(x n ) für x 0 + (b) e 1/x = o(x n ) für x 0 + (c)

Mehr

7. Die eindimensionale Wärmeleitungsgleichung

7. Die eindimensionale Wärmeleitungsgleichung H.J. Oberle Differentialgleichungen II SoSe 2013 7. Die eindimensionale Wärmeleitungsgleichung Als Beispiel für eine parabolische PDG betrachten wir die eindimensionale Wärmeleitungsgleichung u t (x, t)

Mehr