Diplomarbeit. Nadja Balzer. Betreuer: Prof. Dr. H. Maurer. Westfälische Wilhelms-Universität Münster

Ähnliche Dokumente
Zeitoptimale und singuläre Steuerungen in einem mechatronischen System mit Coulomb-Reibung

Optimale Steuerung eines linearen Servomotors

14. Das Minimumprinzip

12 Gewöhnliche Differentialgleichungen

Optimale Steuerung eines mechatronischen. Systems mit Coulomb-Reibung. und Zustandsbeschränkungen

Hinreichende Bedingungen für Optimalsteuerungsprobleme mit nichtglatten Zuständen

Seminar Gewöhnliche Differentialgleichungen

Konvexe Optimierungsprobleme

Kapitel 15. Kontrolltheorie. Josef Leydold Mathematik für VW WS 2017/18 15 Kontrolltheorie 1 / 19. T (1 s(t)) f (k(t)) dt

2.4 Verallgemeinerte Ungleichungen

(a), für i = 1,..., n.

Mathematik 2 für Wirtschaftsinformatik

9 Differentialrechnung für Funktionen in n Variablen

3 Optimierung mehrdimensionaler Funktionen f : R n R

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Rückblick auf die letzte Vorlesung

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

Das Lagrange-duale Problem

1 Einführung, Terminologie und Einteilung

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Extremwerte von Funktionen mehrerer reeller Variabler

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

1 Die direkte Methode der Variationsrechnung

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

KAPITEL 3. Konvexe Funktionen

Konvexe Mengen und Funktionen

Mathematik für Naturwissenschaftler II SS 2010

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

2. Quasilineare PDG erster Ordnung

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Optimierung unter Nebenbedingungen

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

Musterlösung zu Blatt 1

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Extremalprobleme mit Nebenbedingungen

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Extrema von Funktionen mit Nebenbedingung

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Teil I. Lineare Optimierung

Musterlösung Klausur zu Analysis II. Verständnisteil

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Begleitmaterial zur Vorlesung Numerik II

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

5 Interpolation und Approximation

Finite Elemente Methode für elliptische Differentialgleichungen

Nichtlineare Optimierung

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 89

2 Extrema unter Nebenbedingungen

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

1.6 Implizite Funktionen

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

Hamilton-Systeme. J. Struckmeier

Vorlesung Maschinelles Lernen

Gewöhnliche Differentialgleichungen Woche 6. Existenz nach Picard-Lindelöf

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion

23. DIFFERENTIALRECHNUNG VON FUNKTIONEN VON MEHREREN VARIABLEN

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen

Ansätze zur Lösung von NMPC Problemen

7 Anwendungen der Linearen Algebra

Probeklausur zur Analysis 2, SoSe 2017

Analysis von singulären Differentialgleichungen erster und zweiter Ordnung - Skalare Probleme

2 Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen

Anwendungen der Differentialrechnung

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

1 Umkehrfunktionen und implizite Funktionen

Kreistreue der Möbius-Transformationen

Teil 6. Differentialrechnung mehrerer Veränderlicher

Regularitätsbedingungen

Zusatzmaterial zu Kapitel 6

30 Die Gammafunktion und die Stirlingsche Formel

12 Der Gaußsche Integralsatz

Umkehrfunktion. g (y) = f (x) 1, x = g(y), Umkehrfunktion 1-1

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

12. Trennungssätze für konvexe Mengen 83

Dualität bei konvexer Optimierung

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Optimale Steuerung chemischer Batch-Reaktoren Praktikum Nichtlineare Modellierung in den Naturwissenschaften im WS 2012/13

Nichtlineare Gleichungssysteme

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

2 Funktionen in mehreren Variablen: Differentiation

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema

Analysis III. Teil I. Rückblick auf das letzte Semester. Themen aus dem SS Inhalt der letzten Vorlesung aus dem SS.

Vorlesung Maschinelles Lernen

102 KAPITEL 14. FLÄCHEN

Lineare Gleichungssysteme

4.1 Motivation von Variationsmethoden Variationsmethoden im Sobolevraum Motivation von Variationsmethoden

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Transkript:

Westfälische Wilhelms-Universität Münster Institut für numerische und instrumentelle Mathematik Diplomarbeit Optimale Steuerung ökonomischer Prozesse am Beispiel eines komplexen Unternehmensmodells mit bang-bang, singulären Steuerungen und Zustandsbeschränkungen Nadja Balzer Betreuer: Prof. Dr. H. Maurer Februar 26

Inhaltsverzeichnis 1 Einleitung 1 2 Theorie der optimalen Steuerprozesse 5 2.1 Formulierung optimaler Steuerprozesse................. 5 2.2 Äquivalente Umformungen eines Steuerprozesses............ 8 2.2.1 Transformation eines Bolza-Problems auf ein Mayer- Problem.............................. 8 2.2.2 Transformation einer freien Endzeit auf eine feste Endzeit.. 9 2.2.3 Transformation nicht-autonomer Probleme auf autonome Probleme............................... 1 2.3 Das Minimumprinzip von Pontryagin.................. 1 2.4 Probleme mit linear auftretender Steuerung - Bang-bang und singuläre Steuerungen............................ 12 3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen 15 3.1 Grundbegriffe............................... 15 3.2 Direkte Methode - Direct adjoining approach............ 18 3.3 Indirekte Methode - Indirect adjoining approach........... 2 4 Hinreichende Optimalitätsbedingungen 24 4.1 Exkurs in die nichtlineare Optimierung................. 24 4.2 Konvexe Funktionen........................... 26 4.3 Hinreichende Optimalitätsbedingungen für unbeschränkte Steuerprozesse.................................... 29 4.4 Hinreichende Optimalitätsbedingungen für OSP mit Zustandsbeschränkungen..................................... 32 5 Numerische Lösung optimaler Steuerprozesse mittels direkter Verfahren 37 5.1 Diskretisierung.............................. 38 5.2 Vor- und Nachteile der direkten Verfahren............... 39 ii

Inhaltsverzeichnis 6 Das modifizierte Modell von Lesourne und Leban 41 6.1 Beschreibung des Modells von Lesourne und Leban.......... 41 6.2 Formulierung des modifizierten Steuerungsproblems.......... 44 6.3 Auswertung des Minimumprinzips.................... 45 6.4 Numerische Ergebnisse.......................... 48 6.5 Überprüfung der hinreichenden Optimalitätsbedingungen....... 57 7 Ein komplexes Unternehmensmodell 61 7.1 Beschreibung des komplexen Unternehmensmodells.......... 61 7.2 Formulierung des komplexen Steuerungsproblems........... 66 7.3 Auswertung des erweiterten Minimumprinzips............. 68 7.4 Numerische Ergebnisse.......................... 71 7.4.1 Optimale Steuerung des komplexen Unternehmensmodells bei variierendem Preis........................ 71 7.4.2 Optimale Steuerung des komplexen Unternehmensmodells bei konstantem Preis......................... 84 7.4.3 Optimale Steuerung des komplexen Unternehmensmodells bei Verdoppelung der Planungsperiode............... 92 8 Schlussbemerkung 99 A Beispieldateien: AMPL-Code 1 A.1 Komplexes Modell beim variierenden Preis mit Heun-Verfahren... 1 A.2 Komplexes Modell beim variierenden Preis mit Euler-Verfahren... 16 B Eidesstattliche Erklärung 112 C Danksagung 113 D Literaturverzeichnis 114 iii

Abbildungsverzeichnis 3.1 Zustandsbeschränkung x min x(t) x max........... 16 6.1 Die optimalen Steuerungen des modifizierten Modells......... 49 6.2 Die optimalen Trajektorien des modifizierten Modells......... 5 6.3 Die optimalen Adjungierten des modifizierten Modells........ 51 6.4 Die Schaltfunktionen des modifizierten Modells............ 52 6.5 Multiplikatorfunktion: (links) mittels IPOPT erhaltene µ(t), (rechts) theoretisch ausgerechnete µ(t)...................... 53 7.1 Die steigende Lohnkostenfunktion................... 63 7.2 Veranschaulichung des komplexen Unternehmensmodells....... 65 7.3 x 1 bei variierendem Preis........................ 72 7.4 x 3 bei variierendem Preis........................ 72 7.5 x 5 bei variierendem Preis........................ 72 7.6 x 2 bei variierendem Preis........................ 72 7.7 x 4 bei variierendem Preis........................ 72 7.8 x 6 bei variierendem Preis........................ 72 7.9 x 7 bei variierendem Preis........................ 73 7.1 λ 2 bei variierendem Preis........................ 73 7.11 λ 4 bei variierendem Preis........................ 73 7.12 λ 1 bei variierendem Preis........................ 73 7.13 λ 3 beim variierenden Preis........................ 73 7.14 λ 5 bei variierendem Preis........................ 73 7.15 λ 6 bei variierendem Preis........................ 74 7.16 u 1 bei variierendem Preis........................ 74 7.17 u 3 bei variierendem Preis........................ 74 7.18 λ 7 bei variierendem Preis........................ 74 7.19 u 2 bei variierendem Preis........................ 74 7.2 u 4 bei variierendem Preis........................ 74 7.21 Σ 1 bei variierendem Preis........................ 75 iv

Abbildungsverzeichnis 7.22 Σ 3 bei variierendem Preis........................ 75 7.23 µ 1 bei variierendem Preis........................ 75 7.24 Σ 2 bei variierendem Preis........................ 75 7.25 Σ 4 bei variierendem Preis........................ 75 7.26 µ 2 bei variierendem Preis........................ 75 7.27 Variierende Preisfunktion p 2 (t)...................... 77 7.28 Zinsfunktionen (links); Inflationsrate (rechts)............. 83 7.29 x 1 bei konstantem Preis......................... 85 7.3 x 3 bei konstantem Preis......................... 85 7.31 x 5 bei konstantem Preis......................... 85 7.32 x 2 bei konstantem Preis......................... 85 7.33 x 4 bei konstantem Preis......................... 85 7.34 x 6 bei konstantem Preis......................... 85 7.35 x 7 bei konstantem Preis......................... 86 7.36 λ 2 bei konstantem Preis......................... 86 7.37 λ 4 bei konstantem Preis......................... 86 7.38 λ 1 bei konstantem Preis......................... 86 7.39 λ 3 bei konstantem Preis......................... 86 7.4 λ 5 bei konstantem Preis......................... 86 7.41 λ 6 bei konstantem Preis......................... 87 7.42 u 1 bei konstantem Preis......................... 87 7.43 u 3 bei konstantem Preis......................... 87 7.44 λ 7 bei konstantem Preis......................... 87 7.45 u 2 bei konstantem Preis......................... 87 7.46 u 4 bei konstantem Preis......................... 87 7.47 Σ 1 bei konstantem Preis......................... 88 7.48 Σ 3 bei konstantem Preis......................... 88 7.49 µ 1 bei konstantem Preis......................... 88 7.5 Σ 2 bei konstantem Preis......................... 88 7.51 Σ 4 bei konstantem Preis......................... 88 7.52 µ 2 bei konstantem Preis......................... 88 7.53 x 1 bei Verdoppelung der Planungsperiode............... 93 7.54 x 3 bei Verdoppelung der Planungsperiode............... 93 7.55 x 5 bei Verdoppelung der Planungsperiode............... 93 7.56 x 2 bei Verdoppelung der Planungsperiode............... 93 7.57 x 4 bei Verdoppelung der Planungsperiode............... 93 7.58 x 6 bei Verdoppelung der Planungsperiode............... 93 7.59 x 7 bei Verdoppelung der Planungsperiode............... 94 v

Abbildungsverzeichnis 7.6 λ 2 bei Verdoppelung der Planungsperiode............... 94 7.61 λ 4 bei Verdoppelung der Planungsperiode............... 94 7.62 λ 1 bei Verdoppelung der Planungsperiode............... 94 7.63 λ 3 bei Verdoppelung der Planungsperiode................ 94 7.64 λ 5 bei Verdoppelung der Planungsperiode............... 94 7.65 λ 6 bei Verdoppelung der Planungsperiode............... 95 7.66 u 1 bei Verdoppelung der Planungsperiode............... 95 7.67 u 3 bei Verdoppelung der Planungsperiode............... 95 7.68 λ 7 bei Verdoppelung der Planungsperiode............... 95 7.69 u 2 bei Verdoppelung der Planungsperiode............... 95 7.7 u 4 bei Verdoppelung der Planungsperiode............... 95 7.71 Σ 1 bei Verdoppelung der Planungsperiode............... 96 7.72 Σ 3 bei Verdoppelung der Planungsperiode............... 96 7.73 µ 1 bei Verdoppelung der Planungsperiode............... 96 7.74 Σ 2 bei Verdoppelung der Planungsperiode............... 96 7.75 Σ 4 bei Verdoppelung der Planungsperiode............... 96 7.76 µ 2 bei Verdoppelung der Planungsperiode............... 96 vi

Tabellenverzeichnis 6.1 Liste der gewählten Parameter für modifiziertes Modell........ 45 6.2 Optimale Schaltstruktur des modifizierten Problems......... 48 6.3 Schaltpunkte des modifizierten Problems................ 48 7.1 Liste der Parameter des komplexen Unternehmensmodells...... 68 7.2 Vergleich der Rechenzeiten für unterschiedliche Parameter bei 5 Diskretisierungspunkten.......................... 71 7.3 Schaltstruktur der optimalen Steuerungen bei variierendem Preis.. 76 7.4 Schaltstruktur der optimalen Steuerungen bei konstantem Preis... 89 7.5 Schaltstruktur der optimalen Steuerungen bei variierendem Preis.. 97 vii

1 Einleitung Die Theorie der optimalen Steuerprozesse kann dem Oberbegriff Optimierung untergeordnet werden, sie beschäftigt sich mit der Minimierung bzw. Maximierung eines Leistungsmaßes in einem Zeitintervall unter Berücksichtigung bestimmter Nebenbedingungen. Einen wichtigen Teil dieser Nebenbedingungen bildet das dynamische System, welches einen realen Vorgang meist durch gewöhnliche Differentialgleichungen beschreibt. Durch die Einführung einer so genannten Steuerfunktion kann auf die Dynamik des Prozesses von außen Einfluss genommen werden. Nicht zuletzt dank dieser Eigenschaften gewinnen die Steuerprozesse in den unterschiedlichsten Gebieten immer mehr an Bedeutung. Die Anwendung der Theorie der optimalen Steuerprozesse findet man heute sowohl in der Medizin, Physik, Chemie als auch in der Ökonomie. In den Wirtschaftswissenschaften ist die Optimierung ein fester Bestandteil der Lehre. Im Laufe der letzten Jahrzehnte hat sich unter dem Namen Operations Research ein eigenständiger Zweig, der sich unter anderem mit den Optimierungsproblemen befasst, entwickelt. Zu den Aufgaben des Operations Research gehören: die Ermittlung relevanter Einflussgrößen für ein reales Problem, die Erstellung eines (typischerweise mathematischen) Modells, das ein vereinfachtes Abbild der Realität darstellt, das Lösen des Problems, die anschließende Auswertung der Ergebnisse. Die meisten in Operations Research angewendeten Methoden sind statischer Art, d. h. der zugrunde liegende Sachverhalt wird nur zu einem Zeitpunkt oder während eines relativ kurzen Zeitintervalls ohne jegliche zeitliche Änderung betrachtet. Die Vernachlässigung des dynamischen Elements in der wirtschaftlichen Planung zählt jedoch zu den größten Nachteilen der besagten Methoden. Die Theorie der optimalen Steuerprozesse bietet dagegen das richtige Instrumentarium zur Behandlung der Probleme, bei denen die Veränderung des Systems im Zeitablauf eine signifikante Rolle spielt. In der Ökonomie beschränkten sich die Berechnungen der optimalen Steuerung lange Zeit auf vergleichsweise einfache Modelle, die man analytisch 1

1 Einleitung lösen konnte. Durch die Entwicklung leistungsfähigerer Verfahren, die auf modernen Rechnern Aufgaben mit einer Vielzahl von Variablen und Nebenbedingungen mit vertretbarem Aufwand lösen können, ist die Berechnung der optimalen Steuerung für komplexe Modelle ermöglicht worden. In dem hier behandelten Unternehmensmodell, das den Schwerpunkt der vorliegenden Arbeit bildet, geht es um solch einen komplexen optimalen Steuerprozess aus dem Bereich des Unternehmenswachstums. Das komplexe Unternehmensmodell wurde, ausgehend von dem Modell von Lesourne und Leban, von B. Koslik in ihrer Diplomarbeit im Jahre 1994 aufgestellt. Die Problematik besteht darin ein Unternehmen mithilfe von Investitionen, Kreditauf-/abbau, gegebenenfalls Änderung des Lagerbestandes und/oder der Anzahl der Beschäftigten so zu steuern, dass der Gewinn der Eigenkapitalgeber am Ende der Planungsperiode maximiert wird. Wie bei den meisten ökonomischen Modellen sind auch hier bestimmte Ressourcen nur beschränkt verfügbar, z. B. sind die Beschaffung des Kapitals sowie die Lagerung der Ware nur begrenzt möglich, außerdem dürfen die Zustandsvariablen nicht negativ werden. Somit handelt es sich hier also um einen optimalen Steuerprozess mit reinen Zustandsbeschränkungen. Doch bevor man mit der Bearbeitung ausgewählter praxisbezogener Beispiele aus der Wirtschaft beginnt, ist eine theoretische Basis der optimalen Steuerprozesse nötig. Im zweiten Kapitel werden alle zur Formulierung und Lösung der unbeschränkten Steuerprozesse benötigten Definitionen und Sätze vorgestellt. Diese beinhalten das Pontryaginsche Minimumprinzip, welches die notwendigen Optimalitätsbedingungen der optimalen Steuerprozesse darstellt. Darüber hinaus wird in Abschnitt 2.4 näher auf die Prozesse mit linear auftretender Steuerung eingegangen. Bei solchen Problemen können zwei verschieden Arten der Steuerung vorkommen, nämlich bang-bang Steuerungen und die singulären Steuerungen. Die bang-bang Steuerungen sind unstetig, sie nehmen nur Werte auf dem Rand des Steuerbereiches an. Die singulären Steuerungen dagegen können einen beliebigen Verlauf innerhalb des zulässigen Steuerbereiches aufzeigen und sind schwerer zu bestimmen. Die Bearbeitung von Steuerprozessen mit Zustandsbeschränkungen bedarf einiger Erweiterungen der notwendigen Optimalitätsbedingungen der unbeschränkten Prozesse. Dabei spielt der Begriff der Ordnung einer Beschränkung eine wichtige Rolle. In Rahmen dieser Arbeit werden zwei verschiedene Methoden zur Behandlung von optimalen Steuerprozessen mit reinen Zustandsbeschränkungen beschrieben: die direkte und die indirekte Methode. Beide Verfahren führen auf die Begriffsbildung der erweiterten Hamiltonfunktion zurück. Die direkte Methode ist dadurch gekennzeichnet, dass die Zustandsbeschränkung mit einem Multiplikator direkt an die Hamiltonfunktion angehängt wird. Bei der indirekten Methode wird erst die Beschränkung 2

1 Einleitung solange total differenziert bis die Steuerungsvariable explizit in der Ableitung auftaucht und diesen Term koppelt man dann an die Hamiltonfunktion an. Die indirekte Methode wird in der vorliegenden Arbeit hauptsächlich der Vollständigkeit halber vorgestellt, zur Behandlung der praktischen Beispiele wird ausschließlich die direkte Methode verwendet. Mittels der notwendigen Optimalitätsbedingungen werden nur Kandidaten für das Vorliegen eines Optimums bestimmt. Um sicher zu stellen, dass es sich bei der berechneten Lösung tatsächlich um eine Minimal- bzw. Maximalstelle handelt, ist man auf hinreichenden Optimalitätsbedingungen angewiesen. Für viele Probleme wurde jedoch bis heute noch keine umfassende Theorie der hinreichenden Bedingungen entwickelt. So gibt es z. B. auch keine hinreichenden Kriterien, um die Lösung des komplexen Unternehmensmodells prüfen zu können. Es existiert aber eine sehr große Klasse der optimalen Steuerprozesse, bei denen gezeigt werden kann, dass die notwendigen Optimalitätsbedingungen auch hinreichend sind. Dabei handelt es sich, falls die Minimierung eines Zielfunktionals gefordert wird, um die so genannten konvexen Probleme. Diese sind in den ökonomischen Anwendungen besonders oft vertreten, dazu zählt z. B. auch das modifizierte Modell. Aus diesem Grund wird in Kapitel 4 erst der Begriff der Konvexität definiert und näher erläutert. Anschließend werden die Beweise der hinreichenden Optimalitätsbedingungen unter zusätzlichen Konvexitätsannahmen für unbeschränkte und zustandsbeschränkte Steuerprozesse durchgeführt. Aufgrund der Komplexität sind viele praktische Probleme analytisch nicht mehr lösbar, wie z. B. komplexes Unternehmensmodell, welches in Kapitel 7 behandelt wird. Deshalb wird in Kapitel 5 kurz die Vorgehnsweise bei numerischer Bearbeitung der optimalen Steuerprozesse erläutert. Im Kapitel 6 wird zuerst ein von Lesourne und Leban (1978) entwickeltes Modell vorgestellt. Dieses, aus dem Bereich des Firmenwachstums stammende Modell, verfolgt das Ziel den diskontierten Zahlungsstrom an Dividenden zu minimieren. Der Zustand des Unternehmens wird durch das Eigenkapital und das Fremdkapital beschrieben. Dabei kann das dynamische System durch die Steuerungen, wie Beschäftigungsänderung, Investitionen und Dividendenzahlungen, beeinflusst werden. Den Kern der vorliegenden Arbeit bilden die optimalen Steuerprozesse mit Zustandsbeschränkungen und linear eingehenden Steuerungen. Da aber eine der genannten Steuerungen, nämlich die Beschäftigungsänderung im Ursprungsmodell von Lesourne und Leban nicht linear auftritt, wird das Beispiel in Abschnitt 6.2 ein wenig verändert. In den nachfolgenden Abschnitten 6.3, 6.4 werden die notwendigen Optimalitätsbedingungen diskutiert und die optimale Lösung des modifizierten Problems vorgestellt. Zudem wird in Abschnitt 6.5 gezeigt, dass dieses Beispiel die zusätzlichen 3

1 Einleitung Konvexitätsannahmen erfüllt. Somit erweisen sich hier die notwendigen Bedingungen für ein Minimum als hinreichend. Schließlich wird in Kapitel 7 das oben angesprochene komplexe Unternehmensmodell bearbeitet. Hier wird zunächst eine Lösung des Modells mit einem variierenden Produktpreis bei zehnjähriger Planung, inklusive einer ausführlichen Diskussion der Theorie, vorgestellt. Anschließend wird die Lösung bei konstantem Preis angegeben und beide optimalen Strategien miteinander verglichen. Als Letztes wird geprüft wie empfindlich die optimalen Trajektorien (am Beispiel mit variierendem Preis) gegenüber einer Änderung der Planungszeitdauer sind. Anhand einer Analyse der erhaltenen Ergebnisse wird veranschaulicht, dass dieses komplexe Unternehmensmodell sehr realitätsnahe und aussagekräftig ist. Alle Beispiele in dieser Arbeit wurden mithilfe der beiden Optimierungssolver LO- QO von Prof. R. J. Vanderbei und/oder IPOPT von A. Wächter und L. T. Biegler bearbeitet. Eine CD mit den Kopien der entsprechenden Eingabedateien ist am Ende der Arbeit beigefügt, außerdem findet man zwei ausgewählte Beispiele im Anhang. 4

2 Theorie der optimalen Steuerprozesse In diesem einführenden Kapitel werden in Anlehnung an Maurer [1] die wesentlichen Definitionen und Sätze der unbeschränkten optimalen Steuerprozesse bereitgestellt. Eine zentrale Rolle dabei spielt das Minimumprinzip von Pontryagin, welches die notwendigen Optimalitätsbedingungen für eine optimale Steuerung angibt. Außerdem wird ein besonderer Schwerpunkt auf Probleme mit linear auftretender Steuerung gelegt. 2.1 Formulierung optimaler Steuerprozesse Betrachtet wird ein System, das durch n Differentialgleichungen erster Ordnung bestimmt ist. Der Zustandsvektor x(t) = (x 1 (t),...,x n (t)) T R n des Systems beinhaltet alle Variablen, welche das Verhalten des Systems auf dem Zeitintervall [,t f ] beschreiben. Die Endzeit t f wird, je nach Problemstellung, entweder fest vorgegeben oder fungiert als eine freie zusätzliche Variable. Durch den Steuervektor u(t) = (u 1 (t),...,u m (t)) T R m kann der Zustand zu jedem Zeitpunkt t beeinflusst werden. Definition 2.1.1 Das System von Differentialgleichungen ẋ(t) = dx(t) dt = f (t,x(t),u(t)) (2.1) wird als Dynamik des Systems bezeichnet. Hierbei sei f : [,t f ] R n R m R n stetige und bzgl. x R n, u R m stetig partiell differenzierbare Funktion. 5

2 Theorie der optimalen Steuerprozesse Definition 2.1.2 Ein Funktionenpaar (x,u) mit x : [,t f ] R n stückweise stetig differenzierbar und u : [,t f ] R m stückweise stetig heißt Lösung von (2.1), falls gilt ẋ(t) = dx(t) = f (t,x(t),u(t)) dt für alle Stetigkeitsstellen t [,t f ] von u(t). In der Regel muss der Zustandsvektor x(t) an bestimmten Stellen gewisse Nebenbedingungen, etwa x(t i ) M ti, t i [,t f ], i = 1,...,k (2.2) mit abgeschlossenen Mengen M ti R n, erfüllen. In den praktischen Beispielen sind diese häufig nur für den Anfangszustand x() und den Endzustand x(t f ) in der Form von Gleichungen M := {x R n ϕ(x) = } M tf := {x R n ψ(x) = } mit den stetig differenzierbaren Funktionen ϕ : R n R s, ψ : R n R r, s,r n vorgegeben. Die Randbedingungen (2.2) bedeuten demnach: ϕ(x()) =, ψ(x(t f )) = (2.3) Für den Fall s =, bzw. r = ergibt sich dann M = R n, bzw. M tf = R n, dass also x() bzw. x(t f ) frei ist. In den meisten Anwendungen treten jedoch die Randbedingungen in einer einfacheren Struktur auf, als so genannte Standard-Randbedingungen. Definition 2.1.3 Die Randbedingungen der Form x() = x, ψ(x(t f )) = (2.4) mit x R n fest, ψ : R n R r wie oben, nennt man Standard-Randbedingungen. Eine weitere wichtige Komponente eines optimalen Steuerprozesses bildet der Steuerbereich U, durch den für die Steuerung u der zulässige Wertebereich festgelegt wird. Definition 2.1.4 Eine nichtleere, konvexe und abgeschlossene Teilmenge U R m, die die zulässige Wertemenge für den Steuervektor u(t) U t [,t f ] (2.5) enthält, nennt man Steuerbereich. Definition 2.1.5 Ein Funktionenpaar (x( ),u( )) heißt zulässig zur Endzeit t f >, wenn die Nebenbedingungen (2.1)-(2.5) erfüllt sind. 6

2 Theorie der optimalen Steuerprozesse Schließlich wird durch das Zielfunktional die zu optimierende Größe eines optimalen Steuerprozesses gegeben. Dabei wird in der Literatur je nach Verfasser unter optimiere entweder minimiere oder auch maximiere verstanden. In der vorliegenden Arbeit handelt es sich jedoch stets um die Minimierung einer Funktion. Definition 2.1.6 Die Funktion F(x,u) := g (x(t f )) + tf f (t,x(t),u(t))dt (2.6) wird als Zielfunktional bezeichnet. Hierbei seien g : R n R stetig differenzierbar und f : [,t f ] R n R m R n stetige und bzgl. x R n, u R m stetig partiell differenzierbare Funktionen. Mit den obigen Bezeichnungen und Definitionen kann man nun einen optimalen Steuerprozess in eine Kurzform zusammenfassen. Definition 2.1.7 Kompakte Form eines Optimalen Steuerprozesses: Minimiere F(x,u) := g (x(t f )) + tf f (t,x(t),u(t)) dt unter ẋ(t) = dx(t) = f (t,x(t),u(t)) dt x() = x, ψ(x(t f )) = (2.7) u(t) U t [,t f ]. Definition 2.1.8 Ein zulässiges Paar (x,u ) zur einer festen Endzeit t f > heißt optimale Lösung bzw. globale Minimalstelle von (2.7), wenn F(x,u ) F(x,u) für alle zulässigen Paare (x,u) zur Endzeit t f gilt. Ein zulässiges Paar (x,u ) zur einer freien Endzeit t f bzw. globale Minimalstelle von (2.7), wenn > heißt optimale Lösung F(x,u ) F(x,u) für alle zulässigen Paare (x,u) zu einer beliebigen Endzeit t f > gilt. Hier ist t f eine zusätzliche Optimierungsvariable. Die Funktion x (t) heißt optimale Trajektorie und die Funktion u (t) optimale Steuerung des Steuerprozesses (2.7). 7

2 Theorie der optimalen Steuerprozesse 2.2 Äquivalente Umformungen eines Steuerprozesses In den bisherigen Betrachtungen wurden die Steuerprozesse in der so genannten Bolza-Form eingeführt. In diesem Fall besteht das Zielfunktional aus zwei Komponenten: der Funktion g und dem Integral. Es gibt jedoch viele verschiedene Möglichkeiten zur Formulierung eines optimalen Steuerprozesses. Z. B. kann erreicht werden, dass in dem Zielfunktional nur das Integral bzw. nur die Funktion g vorkommt. Dabei spricht man von einem Lagrange-Problem bzw. von einem Mayer-Problem. Außerdem können Probleme mit freier Endzeit auf Probleme mit fester Endzeit zurückgeführt werden. Letztendlich kann jedes Steuerproblem in ein autonomes Problem transformiert werden. Hierbei werden mit autonom diejenigen Prozesse bezeichnet, die nicht explizit von der Zeit t abhängen. Häufig kann es von großem Nutzen sein, ein Steuerproblem in eine andere Form zu transformieren. Aus diesem Grund werden im Nachfolgenden einige Möglichkeiten zur Überführung eines optimalen Steuerprozesses in eine andere Darstellungsform aufgezeigt. 2.2.1 Transformation eines Bolza-Problems auf ein Mayer- Problem Bei der Mayer-Form besteht das Zielfunktional nur aus dem Term g(x(t f )). Um diese Konstruktion zu bekommen muss demnach das Integral im Funktional eliminiert werden. Dies erreicht man durch die Definition einer neuen Zustandsvariablen. Gegeben sei also der optimale Steuerprozess (2.7). Man definiere: x (t) := t f (s,x(s),u(s))ds, t t f, und erweitere den Zustandsvektor zu: ( ) x(t) := x (t) x(t) R n+1. Das transformierte Problem lässt sich damit folgendermaßen in der gewünschten Mayer-Form formulieren: Minimiere g( x(t f )) = g(x(t f )) + x (t f ) unter d x(t) = dt x(t),u(t)), t [,t f ], (2.8) x() = x, ψ( x(tf )) =, u(t) U t [,t f ]. 8

2 Theorie der optimalen Steuerprozesse Dabei gilt ( ) f (t,x,u) f(t, x(t),u(t)) :=, f(t,x,u) ( ) x := und ψ( x(t f )) := ψ(x(t f )). x 2.2.2 Transformation einer freien Endzeit auf eine feste Endzeit Gegeben sei ein optimaler Steuerprozess der Form (2.7) mit freier Endzeit t f. Mit der Einführung einer neuen Zeitvariablen s [, 1] durch: t = s t f, s t f. werden die Zustands- und Steuervariablen in der Abhängigkeit von s folgendermaßen definiert: x(s) := x(s t f ) = x(t) und ū(s) := u(s t f ) = u(t). Für die Dynamik des Systems erhält man daraus: d x ds = dx dt dt ds = f(s t f, x(s),ū(s)) t f und für das Zielfunktional: g(x(t f )) + tf f (t,x(t),u(t))dt = g( x(1)) + 1 f (s t f, x(s),ū(s))t f ds. Zudem wird die freie Endzeit t f als zusätzliche Zustandsvariable durch x n+1 (s) := t f mit in die Dynamik aufgenommen. Für den erweiterten Zustandsvektor ergibt sich: ( ) x(s) x(s) := R n+1. t f Insgesamt kann nun folgender optimaler Steuerprozess mit fester Endzeit s f = 1 formuliert werden: 1 Minimiere F( x,ũ) = g( x(1)) + f (s, x(s),ũ(s)) ds d x(s) unter = ds f(s, x(s),ũ(s)), s [, 1], (2.9) x() = x, ψ( x(1)) =, ũ(s) U s [, 1]. 9

2 Theorie der optimalen Steuerprozesse Mit den Bezeichnungen ũ(s) := ū(s), g( x(1)) := g( x(1)), f (s, x(s),ũ(s)) := t f f (s t f, x(s),ū(s)), ( ) ( ) t f f(s t f, x(s),ū(s)) x f(s, x(s),ũ(s)) :=, x :=,ξ frei ξ ψ( x) := ψ( x). 2.2.3 Transformation nicht-autonomer Probleme auf autonome Probleme Ein nicht-autonomer Steuerprozess läßt sich in ein autonomes Problem umwandeln, indem man die Zeitvariable t, die explizit in f oder f auftaucht, als zusätzliche Zustandsvariable einführt. Mit dem neuen erweiterten Zustandsvektor ( ) x(t) x(t) := R n+1 t erhält man folgenden autonomen Steuerprozess: Minimiere F( x,ũ) = g( x(tf )) + unter mit tf f (t, x(t),u(t)) dt d x(t) = dt f(t, x(t),u(t)), t [,t f ], (2.1) x() = x, ψ( x(tf )) =, u(t) U t [,t f ] g( x) := g(x), f ( x,u) := f ( x n+1, x,u), ( ) ( ) f( x n+1, x,u) x f( x,u) :=, x :=, 1 ψ( x) := ψ(x). x n+1 2.3 Das Minimumprinzip von Pontryagin Nachdem nun alle wichtigen Grundbegriffe und Bezeichnungen aufgelistet worden sind, kann das Minimumprinzip von Pontryagin formuliert werden. Doch zuvor wird noch folgende Definition benötigt. Definition 2.3.1 Sei das Steuerproblem (2.7) gegeben. Des Weiteren sei λ R und λ : [,t f ] R n ein Zeilenvektor. Die Funktion H (t,x(t),λ(t),u(t)) = λ f (t,x(t),u(t)) + λf (t,x(t),u(t)) (2.11) 1

2 Theorie der optimalen Steuerprozesse wird als Hamilton-Funktion des Steuerprozesses (2.7) bezeichnet. Die Variablen λ i, i = 1,...,n werden als adjungierte Variablen oder Kozustand bezeichnet. Bemerkung 2.3.2 Im Falle eines Steuerprozesses in Mayer-Form vereinfacht sich die Hamilton-Funktion zu: H (t,x(t),λ(t),u(t)) = λf (t,x(t),u(t)). (2.12) Satz 2.3.3 (Minimumprinzip von Pontryagin) Sei (x*,u*) eine optimale Lösung von (2.7). Dann gibt es eine Zahl λ, eine stetige und stückweise stetig differenzierbare Funktion λ : [,t f ] R n und einen Zeilenvektor ν R r mit (λ,λ(t),ν) für alle t [,t f ], so dass die folgenden Aussagen gelten: (i) An allen Stetigkeitsstellen t [,t f ] von u (t) gilt die Minimumbedingung: H (t,x (t),λ(t),u (t)) = min u U H (t,x (t),λ(t),u) und die adjungierten Differentialgleichungen: λ(t) = H x (t,x (t),λ(t),u (t)). (ii) Im Endzeitpunkt t f gilt die Transversalitätsbedingung: λ(t f ) = λ g x (x (t f )) + νψ x (x (t f )). (iii) Im Falle einer freien Endzeit t f gilt für die optimale Endzeit t f : H (t f,x (t f ),λ (t f ),u (t f )) =. (iv) Für autonome Probleme gilt außerdem: H (x (t),λ(t),u (t)) const. Für λ unterscheidet man zwischen λ =, dem so genannten abnormalen Fall und λ >. Man rechnet leicht nach, dass in dem normalen Fall λ > eine Skalierung des Vektors (λ,λ) der Form (λ,λ) (1, λ λ ) keine Auswirkung auf die Aussagen des Minimumprinzips hat. Man kann also, sofern λ > gilt, die Bedingungen aus Satz (2.3.3) durch Setzen von λ = 1 vereinfachen. Außerdem kann für den Fall λ = 1 unter zusätzlichen Konvexitätsannahmen gezeigt werden, dass durch das Pontryaginsche-Minimumprinzip auch eine hinreichende Bedingung für die Existenz einer optimalen Lösung gegeben ist. Allerdings stellt sich der Nachweis von λ > im Allgemeinen als problematisch dar. In einigen konkreten Anwendungen ist das folgende Lemma vom großen Nutzen. Lemma 2.3.4 Bei freiem Endzustand x(t f ), d.h., wenn formal ψ gilt, ist λ >, d.h. im Pontryaginschen Minimumprinzip kann λ = 1 gesetzt werden. 11

2 Theorie der optimalen Steuerprozesse 2.4 Probleme mit linear auftretender Steuerung - Bang-bang und singuläre Steuerungen Im Allgemeinen unterscheidet man in der Theorie der optimalen Steuerprozesse zwischen Problemen mit linear und nichtlinear auftretender Steuerung. Während bei den Problemen mit linearer Steuerung diese häufig in einigen Punkten unstetig ist, ist die optimale Steuerung bei nichtlinearen Prozessen stetig und für U = R m sogar eine C k -Funktion. Den Schwerpunkt der vorliegenden Arbeit bilden die Probleme mit linear eingehender Steuerung (d. h. die Steuerung tritt sowohl in der Dynamik als auch im Zielfunktional linear auf). Deshalb werden diese im nachfolgenden Abschnitt näher behandelt. Es liegt also ein Problem der Form Minimiere F(x,u) := g (x(t f )) + tf unter ẋ(t) = dx(t) = a(t,x) + b(t,x)u dt x(t ) = x, ψ(x(t f )) = u(t) U t [t,t f ] (a (t,x) + b (t,x)u) dt vor. Hierbei seien a ein Skalar, b R m ein Zeilenvektor, a R n, b eine (n m) Matrix und U R m konvex und kompakt. Für die zugehörige Hamiltonfunktion mit λ = 1 ergibt sich dann: H (t,x(t),λ(t),u(t)) = λ (a (t,x) + b (t,x)u) + λ(t)(a(t,x) + b(t,x)u) = λ a (t,x) + λ(t)a(t,x) + [λ b (t,x) + λ(t)b(t,x)]u. Eine bedeutende Rolle bei der Behandlung von optimalen Steuerprozessen mit linear eingehender Steuerung spielt der Begriff der Schaltfunktion. Definition 2.4.1 Die Funktion heißt Schaltfunktion. Σ(t) := H u (t,x(t),u(t),λ(t)) = λ b (t,x) + λ(t)b(t,x) (2.13) Insbesondere kann man somit die Hamiltonfunktion folgendermaßen zusammenfassen H(t,x(t),u(t),λ(t)) = λ a (t,x) + λ(t)a(t,x) + Σ(t)u (2.14) und man sieht, dass diese Funktion genau dann minimal bezüglich u wird, wenn Σ(t)u minimal wird. Die Minimumbedingung H (t,x (t),λ(t),u (t)) = min u U H (t,x (t),λ(t),u) 12

2 Theorie der optimalen Steuerprozesse ist somit äquivalent zu dem linearen Optimierungsproblem: minimiere {Σ(t)u u U} t [,t f ]. (2.15) Aus Gründen der Vereinfachung beschränken sich alle weiteren Betrachtungen auf den skalaren Fall m = 1, U = [u min,u max ] R (im Falle einer vektorwertigen Steuerfunktion erfolgt die Auswertung komponentenweise). Die optimale Steuerung kann direkt an der Schaltfunktion abgelesen werden, es gilt: u min, Σ(t) > u (t) = u max, Σ(t) <. (2.16) unbestimmt, Σ(t) = Definition 2.4.2 Sei [t 1,t 2 ] [,t f ] mit t 1 < t 2 (i) Die Steuerung u(t) heißt bang-bang in [t 1,t 2 ], wenn Σ(t) nur isolierte Nullstellen in [t 1,t 2 ] hat, d.h. u(t) {u min,u max }. Die Nullstellen von Σ(t) heißen Schaltpunkte. (ii) Die Steuerung u(t) heißt singulär in [t 1,t 2 ], wenn Σ(t) auf dem gesamten Intervall [t 1,t 2 ] gilt. Für Σ(t) liegt demnach eine bang-bang Steuerung vor, die gemäß (2.16) angegeben werden kann. Sobald jedoch singuläre Stücke auftreten, bedarf es weiterführender nachfolgender Überlegungen. Es sei Σ(t) für t [t 1,t 2 ]. Man definiere rekursiv die Funktionen Σ (k) (t,x,λ,u), k durch: Σ () (t,x,λ,u) := Σ(t,x,λ), Σ (k+1) (t,x,λ,u) := t Σ(k) (t,x,λ,u) + x Σ(k) (t,x,λ,u) t + λ Σ(k) (t,x,λ,u) t. Entweder gilt dann u Σ(k) (t,x,λ,u) für alle k, k oder es existiert ein k > mit u Σ(k) (t,x,λ,u), für k =,...,k 1 u Σ(k) (t,x,λ,u). Aufgrund der Linearität der Steuerung u gibt es für u Σ(k) (t,x,λ,u) eine Darstellung der Form: u Σ(k) (t,x,λ,u) = A(t,x(t),λ(t)) + B(t,x(t),λ(t))u mit geeigneten Funktionen A : [t 1,t 2 ] R n R n R und B : [t 1,t 2 ] R n R n R. Außerdem gilt wegen Σ(t,x,λ,u) 13

2 Theorie der optimalen Steuerprozesse offensichtlich Σ (k) (t,x,λ,u). Somit ergibt sich für die singuläre Steuerung: für alle t [t 1,t 2 ] mit B(t,x(t),λ(t)). u sing = A(t,x(t),λ(t)) B(t,x(t),λ(t)) Satz 2.4.3 (Ordnung einer singulären Steuerung) 1. Gilt k <, so ist k = 2q, q N + eine gerade Zahl. Die Zahl q 1 heißt die Ordnung der singulären Steuerung. 2. Für eine optimale Lösung (x(t),u sing (t),λ(t)) gilt die verallgemeinerte Legendre- Clebsch-Bedingung: ( 1) q B(t,x(t),λ(t)) = ( 1) q u Einen Beweis dieses Satzes findet man z.b. in Knobloch [6]. [ ] d 2q dt 2qH u(t,x(t),u sing (t),λ(t)). (2.17) 14

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen Bisher wurden allgemeine Steuerprozesse und notwendige Optimalitätsbedingungen für Probleme ohne Beschränkungen betrachtet. Doch in den meisten praktischen Anwendungen treten solche öfters im Zustandsbereich sowie in der gemischten Form, im Zustands-Steuerbereich auf. Man unterscheidet demnach zwischen reinen Zustandsbeschränkungen und gemischten Beschränkungen. Für die vorliegende Arbeit und die hier behandelten Beispiele aus der Unternehmenspolitik ist jedoch nur der erste Typ der besagten Beschränkungen von Interesse. Bei solchen Steuerprozessen können die Beschränkungen einen entscheidenden Einfluss auf die Optimalitätsbedingungen ausüben. Außerdem ist die Struktur der Lösung in der Regel komplexer. Zur Bearbeitung der zustandsbeschränkten Steuerprozesse bedarf es des erweiterten Pontryaginschen Minimumprinzips, welches in den Abschnitten 3.2 und 3.3 formuliert wird. 3.1 Grundbegriffe Zunächst werden in diesem Abschnitt die Grundbegriffe und wichtige Definitionen der optimalen Steuerprozesse mit reinen Zustandsbeschränkungen bereitgestellt. Gegeben sei also ein optimaler Steuerprozess: Minimiere F(x,u) := g (x(t f )) + tf f (t,x(t),u(t)) dt unter ẋ(t) = dx(t) = f (t,x(t),u(t)) dt (3.1) x() = x, ψ(x(t f )) = u(t) U t [,t f ] mit der reinen Zustandsbeschränkung S(x(t)), t [,t f ]. (3.2) Dabei sei S : R n R k, k N + eine hinreichend oft stetig differenzierbare Funktion. 15

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen x(t) x max Kontaktpunkt Eintrittspunkt Austrittspunkt Verbindungspunkte x min Randstück inneres Teilstück t i t i+1 t i+2 t i+3 t i+4 t i+5 t i+6 t Abbildung 3.1: Zustandsbeschränkung x min x(t) x max Bei der Lösung solcher Steuerprozesse unterscheidet man zwischen inneren Teilstücken und Randstücken. Definition 3.1.1 Ein Intervall [t i,t i+1 ] [,t f ] wird inneres Teilstück genannt, wenn S(x(t)) < t [,t f ] (3.3) gilt. Per Definition ist die Zustandsbeschränkung auf inneren Teilstücken im gesamten Zeitintervall nicht aktiv, daher gelten für die optimale Lösung die notwendigen Bedingungen von Satz (2.3.3). Wirklich interessant für dieses Kapitel sind also nur die Probleme, in denen die Beschränkung (3.2) aktiv wird. Definition 3.1.2 Die abgeschlossene Menge heißt Menge der aktiven Zeitpunkte. I := { t [,t f ] S(x(t)) = } (3.4) Definition 3.1.3 Ein Intervall [t e,t a ] [,t f ] wird Randstück genannt, wenn gilt. Der Zeitpunkt t e heißt Eintrittspunkt, falls gilt S(x(t)) t [t e,t a ] (3.5) S(x(t e ε)) < für ε > hinreichend klein. 16

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen Der Zeitpunkt t a heißt Austrittspunkt, falls gilt S(x(t a + ε)) < für ε > hinreichend klein. Ein Punkt τ [,t f ] heißt Kontaktpunkt, falls gilt S(x(τ)) =, S(x(τ ± ε)) < für ε > hinreichend klein. Definition 3.1.4 Ein Eintritts- bzw. Austrittspunkt heißt Verbindungspunkt zwischen dem inneren Teilstück und dem Randstück. Definition 3.1.5 Die Steuerung auf einem Randstück [t e,t a ] wird als Randsteuerung bezeichnet. Im Folgenden soll die Randsteuerung für den skalaren Fall m = 1 genauer untersucht werden. Eine wichtige Rolle hierbei spielt die Ordnung der Zustandsbeschränkung. Man definiere rekursiv die Funktionen S i, i N durch: S := S, S i+1 := (S i ) x f. (3.6) Definition 3.1.6 Die Zustandsbeschränkung S(x(t)) heißt p-ter Ordnung falls gilt: (S i ) u = Si u (S p ) u = Sp u. für i =,...,p 1 und Anders ausgedrückt enthalten die ersten p 1 totalen Ableitungen nach der Zeit t keine Steuervariable, die Steuerung u tritt erstmals in der p-ten Ableitung explizit auf, d. h.: S i = S i (x) S p = S p (x,u). (3.7) Daher gilt auf einem Randstück für alle t [t e,t a ]: S i (x(t)) =, i =,...,p 1 S p (x(t)) =. (3.8) Diese Bedingungen sind aufgrund des Eindeutigkeitssatzes für Differentialgleichungen äquivalent zu: S i (x(t e )) =, i =,...,p 1 S p (x(t)) =, t [t e,t a ]. (3.9) 17

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen Bevor nun die notwendigen Optimalitätsbedingungen für Steuerprozesse mit reinen Zustandsbeschränkungen im nächsten Abschnitt formuliert werden, wird noch folgende Voraussetzung benötigt. Voraussetzung 3.1.7 1. Die Gleichung S p (x,u) = ist eindeutig auflösbar nach u = u(x) mit einer C p+1 -Funktion u(x). 2. Auf jedem Randstück [t e,t a ] gelte: S p u (x,u), t [t e,t a ]. 3. Die Randsteuerung liege echt im Inneren des Steuerbereiches, d.h.: u(t) int U, t [t e,t a ]. Demnach gilt auf einem Randstück [t e,t a ] eine eindeutige Beziehung u(t) = u(x(t)). 3.2 Direkte Methode - Direct adjoining approach Zur Behandlung von Problemen mit reinen Zustandsbeschränkungen existieren mehrere verschiedene Verfahren. Eine der meist angewandten Methoden, die in diesem Abschnitt erläutert werden soll, ist die direkte Methode. Hierbei wird die Funktion S(x(t)) mit einem Multiplikator versehen und direkt zur Hamiltonfunktion adjungiert. Definition 3.2.1 Es seien das Steuerproblem (5.1), λ : [,t f ] R n, λ R und µ : [,t f ] R k gegeben. Die Funktion H (t,x,λ,µ,u) = λ f (t,x,u) + λf (t,x,u) + µs(x) (3.1) H (t,x,λ,µ,u) = H (t,x,λ,u) + µs(x) heißt die erweiterte Hamilton-Funktion zum Steuerprozess (5.1). Satz 3.2.2 (erweitertes Minimumprinzip) Sei (x*,u*) eine optimale Lösung des zustandsbeschränkten Steuerprozesses (5.1). Außerdem erfülle das Paar (x*,u*) die Voraussetzung (3.1.7). Dann existieren 1. eine Konstante λ R, λ, 2. stückweise stetige und stückweise stetig differenzierbare Funktion λ : [,t f ] R n, 18

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen 3. ein Zeilenvektor ρ R r, 4. eine stückweise stetige Multiplikator-Funktion µ : [,t f ] R k, 5. in jedem Verbindungs- und Kontaktpunkt Multiplikatoren ν(t i ) R, ν(t i ), sodass folgende Aussagen gelten: (i) An allen Stetigkeitsstellen t [,t f ] von u (t) gilt die Minimumbedingung: H (t,x (t),λ(t),µ(t),u (t)) = min u U und die adjungierten Differentialgleichungen: H (t,x (t),λ(t),µ(t),u) λ(t) = H x (t,x (t),λ(t),µ(t),u (t)). (ii) Im Endzeitpunkt t f gilt die Transversalitätsbedingung: λ(t f ) = λ g x (x (t f )) + ρψ x (x (t f )) + γs x (x (t f )), γ, γs(x (t f )) =. (iii) Für alle t [,t f ] gilt die Vorzeichenbedingung: µ(t) und die Komplementaritätsbedingung: µ(t)s(x (t)). (iv) In jedem Verbindungs- und Kontaktpunkt gelten die Sprungbedingungen: λ(t + i ) = λ(t i ) ν(t i)s x (x (t i )). (v) Im Falle einer freien Endzeit t f gilt für die optimale Endzeit t f : H (t f,x (t f ),λ (t f ),µ (t f ),u (t f )) =. Einen Beweis findet man in [11]. Für Probleme mit linear eingehender Steuerung lässt sich die optimale Steuerung formal wie folgt berechnen: Auf einem Randstück [t e,t a ] [,t f ] gilt nach Definition: S(x(t)) =, t [t e,t a ]. 19

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen Da S p (x,u) affin-linear in u ist, existiert eine Darstellung der Form: S p (x,u) = α(x) + β(x)u mit geeigneten Funktionen α(x) und β(x). Außerdem gilt auf dem Randstück [t e,t a ] nach Voraussetzung (3.1.7): S p u (x,u), t [t e,t a ] und die Randsteuerung u rand kann in Abhängigkeit von x ermittelt werden: u rand (x) = α(x) β(x). In dem Minimumprinzip wird vorausgesetzt, dass die optimale Steuerung auf einem Randstück echt im Inneren des Steuerbereiches U liegt: u(t) int U, t [t e,t a ]. Nach der Minimumbedingung wird die Hamiltonfunktion im Optimum bezüglich der Steuerung u minimiert. Dies impliziert: = H(t) = Σ(t). (3.11) Die Randsteuerung verhält sich somit formal wie eine singuläre Steuerung. Im Gegensatz zu unbeschränkten Problemen können bei den Steuerprozessen mit Zustandsbeschränkungen Unstetigkeiten in den adjungierten Variablen auftreten. Bei linear auftretender Steuerung kann der folgende Satz eine wichtige Rolle spielen. Satz 3.2.3 Sei p = 1 und u(t) unstetig in einem Verbindungspunkt t i, dann gilt ν(t i ) =. λ(t) ist also stetig in t i und es gilt Σ(t i ) =. Einen Beweis findet man in Maurer [12]. 3.3 Indirekte Methode - Indirect adjoining approach Eine weitere Möglichkeit zur Auswertung zustandsbeschränkter Steuerprozesse bietet die indirekte Methode. Bei diesem Ansatz, der historisch gesehen älter als der Direkte ist, wird nicht die reine Beschränkung S(x(t)) an die Hamilton-Funktion angekoppelt, sondern die p-te Ableitung der Zustandsbeschränkung nach der Zeit t, wobei p der Ordnung der Beschränkung entspricht. In dieser Arbeit werden die notwendigen Bedingungen der indirekten Methode nur für den Fall p = 1 formuliert, 2

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen außerdem soll zur Vereinfachung die Steuerung u wieder skalar vorliegen. Zunächst wird der in 3.2.1 eingeführte Begriff der erweiterten Hamilton-Funktion modifiziert. Definition 3.3.1 Es sei das Steuerproblem (5.1) mit der Zustandsbeschränkung (3.2) der Ordnung p = 1 gegeben. Die Funktion H ( 1 t,x,λ 1,µ 1,u ) = λ 1 f (t,x,u) + λ 1 f (t,x,u) + µ 1 S 1 (x) (3.12) H ( 1 t,x,λ 1,µ 1,u ) = H ( t,x,λ 1,u ) + µ 1 S 1 (x) heißt die erweiterte Hamilton-Funktion der indirekten Methode zum Steuerprozess (5.1). Hierbei sind λ 1 : [,t f ] R n und µ 1 : [,t f ] R k. Um den Zusammenhang zwischen den beiden Verfahren herzustellen, muss man folgende Beziehungen zwischen den verwendeten Multiplikatoren beachten. 1. Die Multiplikatoren λ 1, µ 1 aus 3.3 werden durch Integration der Multiplikatoren λ := λ und µ := µ aus dem Abschnitt 3.2 erzeugt. 2. Der Multiplikator λ 1 (t) ist definiert durch: λ 1 (t) = λ (t) µ 1 (t)(s ) x (x(t)). (3.13) 3. Für den Multiplikator µ 1 gilt: { µ 1 ν(t a ) + t a µ (s)ds, für t [t t e,t a ] (t) =, sonst. (3.14) 4. Für den Multiplikator ν 1 gilt: ν 1 (t e ) = ν (t e ) + µ 1 (t e ). (3.15) Man beachte, dass hier angeführten Beziehungen zwischen den Multiplikatoren in beide Richtungen gelten, d. h. wenn die Multiplikatoren der indirekten Methode hinreichend glatt sind, können aus ihnen mittels der obigen Gleichungen die Multiplikatoren der direkten Methode gewonnen werden. Mit den Bezeichnungen aus der Definition (3.3.1) lauten die notwendigen Optimalitätsbedingungen: Satz 3.3.2 (erweitertes Minimumprinzip der indirekten Methode) Sei (x*,u*) eine optimale Lösung des zustandsbeschränkten Steuerprozesses (5.1) mit der Zustandsbeschränkung S(x(t) der Ordnung p=1. Außerdem seien f und S C 2 -Funktionen und die beiden folgenden Bedingungen erfüllt: 21

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen 1. Auf jedem Randstück [t e,t a ] gelte: S 1 u (x,u ), t [t e,t a ]. 2. Die Randsteuerung liege echt im Inneren des Steuerbereichs, d.h.: u(t) int U, t [t e,t a ]. Dann existieren 1. eine Konstante λ R, λ, 2. stückweise stetige und stückweise stetig differenzierbare Funktion λ 1 : [,t f ] R n, 3. ein Zeilenvektor ρ 1 R r, 4. eine stückweise stetige Multiplikator-Funktion µ 1 : [,t f ] R, 5. in jedem Verbindungs- und Kontaktpunkt Multiplikatoren ν 1 (t i ) R, ν 1 (t i ), sodass folgende Aussagen gelten: (i) An allen Stetigkeitsstellen t [,t f ] von u (t) gelten die Minimumbedingung: H 1 ( t,x (t),λ 1 (t),µ 1 (t),u (t) ) = min u U H1 ( t,x (t),λ 1 (t),µ 1 (t),u ) und die adjungierten Differentialgleichungen: ( λ 1 (t) = Hx 1 t,x (t),λ(t) 1,µ 1 (t),u (t) ). (ii) Im Endzeitpunkt t f gilt die Transversalitätsbedingung: λ 1 (t f ) = λ 1 g x (x (t f )) + ρ 1 ψ x (x (t f )), (falls S(x (t f )) < ) (iii) Für alle t [,t f ] gilt die Komplementaritätsbedingung: µ 1 (t), µ(t) 1 S(x (t)) und für alle t [t e,t a ] die Vorzeichenbedingung: µ 1 (t) t [t e,t a ]. (iv) In jedem Eintrittspunkt gilt die Sprungbedingung: λ 1 (t + e ) = λ 1 (t e ) ν 1 (t e )S x (x (t i )). 22

3 Optimale Steuerprozesse mit reinen Zustandsbeschränkungen (v) In jedem Kontaktpunkt gilt: λ 1 (τ + ) = λ 1 (τ ) ν 1 ks x (x (τ)), ν 1 k. (vi) In jedem Austrittspunkt gilt die Stetigkeitsbedingung: λ 1 (t + a ) = λ 1 (t a ). (vii) Im Falle einer freien Endzeit t f gilt für die optimale Endzeit t f : H 1 ( t f,x (t f ),λ 1 (t f ),µ 1 (t f ),u (t f ) ) =. Einen Beweis hierzu findet man in Maurer [11] und Hartl, Sethi und Vickson [4]. Im Gegensatz zum direkten Ansatz gilt die Sprungbedingung für die adjungierten Variablen beim indirekten Ansatz nur in den Eintrittspunkten. Demnach ist die adjungierte Funktion λ 1 (t) bei der Anwendung der indirekten Methode in den Austrittspunkten stetig. 23

4 Hinreichende Optimalitätsbedingungen Durch das Minimumprinzip von Pontryagin und dessen Erweiterung auf die Probleme mit Beschränkungen werden notwendige Optimalitätsbedingungen für das Vorliegen einer Extremalstelle gegeben. Um nachweisen zu können, dass es sich bei der berechneten Lösung tatsächlich um ein Optimum handelt, werden die hinreichenden Bedingungen benötigt. In einigen Fällen kann jedoch gezeigt werden, dass unter zusätzlichen Konvexitätsannahmen durch das Pontryaginsche Minimumprinzip auch hinreichende Optimalitätsbedingungen gegeben sind. Diese Tatsache erweist sich besonders für ökonomische Probleme als sehr hilfreich. Denn in den meisten wirtschaftlichen Modellen geht man von einer Maximierung des Zielfunktionals aus und somit werden für hinreichende Bedingungen zusätzliche Konkavitätsannahmen gefordert. Diese Voraussetzung wird, da viele ökonomische Funktionen einen konkaven Verlauf aufweisen, sehr häufig erfüllt. Als ein Beispiel wäre z.b. die Nutzenfunktion 1, die in zahlreichen Problemen eine wichtige Rolle spielt, zu nennen. 4.1 Exkurs in die nichtlineare Optimierung Um zu beweisen, dass die notwendigen Bedingungen unter zusätzlichen Konvexitätsannahmen auch hinreichend sind, werden die Kuhn-Tucker-Bedingungen der nichtlinearen Optimierung benötigt. Aus diesem Grunde wird zunächst ein kleiner Rückblick auf die nichtlineare Optimierung gegeben. Definition 4.1.1 Gegeben seien die differenzierbare Abbildung f : R n R und die stetig differenzierbare Abbildung g : R n R m. Dann lautet das Standardproblem der nichtlinearen Optimierung: Minimiere f(x) unter g i (x), i = 1,...,k, (4.1) g i (x) =, i = k + 1,...,m. 1 Die Nutzenfunktion ist in der Volkswirtschaftslehre eine häufig gewählte Modellierung der Präferenzen einzelner Wirtschaftssubjekte. 24

4 Hinreichende Optimalitätsbedingungen Definition 4.1.2 Erfüllt ein Punkt x R n die Bedingungen: g i (x) für i = 1,...,k g i (x) = für i = k + 1,...,m, so heißt er zulässig für das Optimierungsproblem (4.1). Definition 4.1.3 Die Mengen I( x) := {i {1,...,k} g i ( x) = } J( x) := I( x) {k + 1,...,m} werden als Mengen der aktiven Indizies bezeichnet. Definition 4.1.4 Ein zulässiger Punkt x des Standardproblems (4.1) heißt regulär, wenn gilt: (a) Die Gradienten (g k+1 ) x ( x),..., (g m ) x ( x) sind linear unabhängig, (b) v R n mit : (g i ) x ( x)v < für i I( x), (g i ) x ( x)v = für i {k + 1,...,m}. Definition 4.1.5 Ein zulässiger Punkt x des Standardproblems (4.1) heißt normal, wenn gilt: Die Gradienten (g i ) x ( x), i J( x) sind linear unabhängig. Mit den obigen Definitionen können nun die notwendigen Optimalitätsbedingungen der nichtlinearen Optimierung angegeben werden. Satz 4.1.6 (Satz von John und Karush-Kuhn-Tucker) Sei x eine lokale Minimalstelle des Optimierungsproblems (4.1). Dann gilt: (i) Es existiert ein Zeilenvektor (λ,λ) R R m \ {, m } mit: λ f x ( x) + λ i (g i ) x ( x) =, i J( x) λ, λ i für i I( x), λ i = für i / J( x). (ii) Ist x regulär, d. h. es gelte: (a) Die Gradienten (g k+1 ) x ( x),..., (g m ) x ( x) sind linear unabhängig, (b) v R n mit : (g i ) x ( x)v < für i I( x), (g i ) x ( x)v = für i {k + 1,...,m}, so kann λ = 1 gesetzt werden. 25

4 Hinreichende Optimalitätsbedingungen (iii) Ist x normal, d.h. die Gradienten (g i ) x ( x), i J( x) sind linear unabhängig, so ist λ R m mit λ = 1 eindeutig bestimmt. Einen Beweis dieses Satzes findet man z. B. in Luenberger [9]. Definition 4.1.7 Die Komponenten λ i, i =, 1,...,m aus den Bedingungen des Satzes (4.1.6) heißen Lagrange-Multiplikatoren und die Funktion L(x,λ,λ) := λ f(x) + λg(x), (4.2) mit λ R m Zeilenvektor, λ R heißt Lagrange-Funktion. 4.2 Konvexe Funktionen Im folgenden Abschnitt werden zunächst die Begriffe der Konvexität und der Quasi- Konvexität, die in diesem Kapitel eine sehr wichtige Rolle spielen, vorgestellt. Es werden einige Sätze formuliert, die zum Beweis der hinreichenden Bedingungen notwendig sind. Zum Schluss wird ein ausgewähltes Kriterium zur Überprüfung der Konvexität eingeführt. Dieses wird zur Behandlung des modifizierten Modells von Lesourne und Leban in Kapitel 5 verwendet. Definition 4.2.1 Eine nicht-leere Teilmenge D R n heißt konvex, wenn für alle α mit α 1 und für alle x 1,x 2 D gilt: αx 1 + (1 α)x 2 D. Definition 4.2.2 Sei D eine konvexe Teilmenge des R n. Eine auf D definierte Funktion f : D R heißt konvex, wenn für alle x 1, x 2 aus ihrem Definitionsbereich D und für alle α [, 1] gilt: f(αx 1 + (1 α)x 2 ) αf(x 1 ) + (1 α)f(x 2 )). Falls f differenzierbar ist, so ist ihre Konvexität äquivalent zu: f x (x 1 )(x 2 x 1 ) f(x 2 ) f(x 1 ). Gilt in diesen Ungleichungen anstelle von das Zeichen, so ist die Funktion f konkav. Definition 4.2.3 Eine Funktion f : R n R heißt quasi-konvex auf dem konvexen Definitionsbereich D R n, wenn für alle x 1,x 2 D und für alle ζ [, 1] gilt: f(ζx 1 + (1 ζ)x 2 ) min {f(x 1 ),f(x 2 )} Gilt in diesen Ungleichungen anstelle von das Zeichen, so ist die Funktion f quasi-konkav. 26

4 Hinreichende Optimalitätsbedingungen Bemerkung 4.2.4 Jede konvexe Funktion ist auch quasi-konvex. Bemerkung 4.2.5 Eine lineare Funktion f : D R ist auf jeder konvexen Menge D R n sowohl konvex als auch konkav. Satz 4.2.6 Sei f : D R quasi-konvex und differenzierbar auf der konvexen Menge D R n. Dann gilt für alle x,x D mit f(x) f(x ): f x (x )(x x ). (4.3) Satz 4.2.7 Sei f : D R quasi-konvex und differenzierbar auf der konvexen Menge D R n. Ferner existiere ein Vektor x und ein Skalar γ mit f(x ), γ, f(x )γ =. (4.4) Dann gilt für alle x D mit f(x) : γf x (x )(x x ). (4.5) Ein Beweis des Satzes (4.2.6) folgt unmittelbar aus der Definition einer quasikonvexen Funktion. Die Behauptung des Satzes (4.2.7) kann mittels des Satzes (4.2.6) direkt nachvollzogen werden. Des Weiteren werden einige Sätze über konvexe und quasi-konvexe Funktionen angegeben, deren Beweise sich direkt aus den jeweiligen Definitionen ergeben. Satz 4.2.8 f(x) ist genau dann quasi-konvex, wenn die Menge A α = {x f(x) α} für jedes α R n konvex ist. Satz 4.2.9 Seien K R n eine konvexe Menge und f 1,...,f m : K R n konvexe Funktionen. Dann ist auch jede nichtnegative Linearkombination der Funktionen: f := m α i f i, α i i = 1,...,m i=1 eine konvexe Funktion. Satz 4.2.1 Sind D 1,...,D k R n konvexe Mengen, so ist deren Durchschnitt D 1,..., Dk ebenfalls konvex. Schließlich wird für den Beweis der hinreichenden Optimalitätsbedingungen noch folgendes Resultat, entnommen aus Rockafellar [15], verwendet. 27