Exkurs: Dynamische Optimierung



Ähnliche Dokumente
4. Dynamische Optimierung

Lineare Optimierung Ergänzungskurs

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Bestimmung einer ersten

Mathematik 1 für Wirtschaftsinformatik

Erweiterung der Aufgabe. Die Notenberechnung soll nicht nur für einen Schüler, sondern für bis zu 35 Schüler gehen:

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Kapitel MK:IV. IV. Modellieren mit Constraints

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Informationsblatt Induktionsbeweis

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

BONUS MALUS SYSTEME UND MARKOV KETTEN

Suchmaschinen. Universität Augsburg, Institut für Informatik SS 2014 Prof. Dr. W. Kießling 23. Mai 2014 Dr. M. Endres, F. Wenzel Lösungsblatt 6

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung

( ) als den Punkt mit der gleichen x-koordinate wie A und der

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Die Verbindung von Linearer Programmierung und Graphentheorie

Sichere Anleitung Zertifikate / Schlüssel für Kunden der Sparkasse Germersheim-Kandel. Sichere . der

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Professionelle Seminare im Bereich MS-Office

R ist freie Software und kann von der Website.

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2

Robotik-Praktikum: Ballwurf mit dem Roboterarm Lynx6 Modellbeschreibung. Julia Ziegler, Jan Krieger

1. Speicherbausteine JK-RS-Master-Slave-Flip-Flop

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Dynamische Optimierung. Kapitel 4. Dynamische Optimierung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/ / 206

Musterlösungen zur Linearen Algebra II Blatt 5

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Optimalitätskriterien

3. Grundlagen der Linearen Programmierung

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Was sind Jahres- und Zielvereinbarungsgespräche?

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah

Optimierung für Nichtmathematiker

Doing Economics with the Computer Sommersemester Excel Solver 1

Simplex-Umformung für Dummies

Kevin Caldwell. 18.April 2012

Lineare Gleichungssysteme I (Matrixgleichungen)

DAS ABI-PFLICHTTEIL Büchlein

Lineare Gleichungssysteme

Einführung in die Algebra

Grundlagen der Videotechnik. Redundanz

Quadratische Gleichungen

11.AsymmetrischeInformation

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

Projektmanagement für Ingenieure

Die reellen Lösungen der kubischen Gleichung

Bevor lineare Gleichungen gelöst werden, ein paar wichtige Begriffe, die im Zusammenhang von linearen Gleichungen oft auftauchen.

Übung Theoretische Grundlagen

4 Vorlesung: Matrix und Determinante

Einführung in. Logische Schaltungen

Dynamisches SQL. Folien zum Datenbankpraktikum Wintersemester 2009/10 LMU München

Verbesserungsdetails: PTC Mathcad Prime 3.0. Copyright 2013 Parametric Technology Corporation. weiter Infos unter

Kaufmännische Berufsmatura 2007 Kanton Zürich Serie 1

Wie lässt sich die Multiplikation von Bruchzahlen im Operatorenmodell und wie im Größenmodell einführen?

Zufallsgrößen und Wahrscheinlichkeitsverteilungen

Das Mathematik-Abitur im Saarland

Ein Buch entsteht. Ein langer Weg

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

Formelsammlung zur Kreisgleichung

Zeichen bei Zahlen entschlüsseln

Installation OMNIKEY 3121 USB

Umstellung von Inlandssammelaufträgen in SEPA-Sammelaufträge

1 topologisches Sortieren

So geht s Schritt-für-Schritt-Anleitung

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Übungsaufgaben Tilgungsrechnung

Modellbildungssysteme: Pädagogische und didaktische Ziele

Tutorium zur Mikroökonomie II WS 02/03 Universität Mannheim Tri Vi Dang. Aufgabenblatt 3 (KW 44) ( )

Finanzwirtschaft. Teil II: Bewertung

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Lineare Gleichungssysteme

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse

2. Psychologische Fragen. Nicht genannt.

HIER GEHT ES UM IHR GUTES GELD ZINSRECHNUNG IM UNTERNEHMEN

Klicksparen. Einrichtung und Nutzung von Klicksparen am Beispiel vom iphone Hamburg,

7.3 Einrichtung 13. Monatslohn. Auszahlung Ende Jahr / Ende der Beschäftigung

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

Datenexport aus JS - Software

Mathematischer Vorbereitungskurs für Ökonomen

Beispiel(unten ist der Spielfeldrand):

Grundlagen der Monte Carlo Simulation

AUTOMATISIERTE HANDELSSYSTEME

Angebot. UVV-Prüfungen und Wartungen von mobilen Abfallpressen

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

So wird s gemacht - Nr. 24

DIFFERENTIALGLEICHUNGEN

Kapitel 16 und 17. Anwendungen Konsumententheorie

Primzahlen und RSA-Verschlüsselung

Kapitel 7 - Wägungen

Abiturprüfung Mathematik 2008 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: Weitere Informationen oder Bestellungen unter

Wirtschaftlichkeitsrechnung (SS 2009)

Transkript:

Exkurs: Dynamische Optimierung Kapitel 4 Literatur Optimierung Mathematical Methods and Models for Economists, Angel de la Fuente, Cambridge University Press Bibliothekssignatur: QH 000FUE Seite 549 580 R. Barro, X. Sala-i-Martin, Economic Growth, (deutsche und englische Ausgabe Bibliothekssignatur: QC 340 BAR Seite 580 ff Skript: http://agecon2.tamu.edu/people/faculty/woodwardrichard/637/notes/default.htm 2

1 Einführung Optimierung Optimierung dynamisch statisch finit infinit diskret kontinuierlich 3 1 Einführung Optimierung Bei der statischen Optimierung wird ein Vektor an Kontrollvariablen so gewählt, dass der Funktionswert einer Zielfunktion maximal wird und gegebenen Nebenbedingungen erfüllt beleiben. Bei der dynamischen Optimierung in diskreter Zeit - wird eine Sequenz solcher Entscheidungen gesucht, wobei jeweils zwei Zeitschritte über sog. Zustandsvariablem verbunden sind. 4

2 Optimierung in diskreter Zeit Ökonomisches System, dass in einzelne Zeitschritte zerlegt werden kann Z.B. jährliche Investitionsentscheidungen Spar- und Konsumentscheidungen eines Haushalts Die Zielfunktion ist eine Summe Kontrollvariablen werden durch einen Akteur so bestimmt, dass die Zielfunktion maximiert wird Das System besteht aus Zustandsvariablen und Kontrollvariablen 5 2.1 Begrifflichkeiten Kontrollvariablen decision variables können durch den Entscheider bestimmt werden u s!! n Z.B. Konsumentscheidung, Sparentscheidung Zustandsvariablem state variables oder stocks werden durch die Wahl der Kontrollvariablen bestimmt Z.B. Sparbuchhöhe, Kapitalbestand x s!! n Zur Vereinfachung ist unterstellt, dass x in s=0 gegeben ist Nebenbedingungen werden zur Vereinfachung als!c s beschrieben 6

2.2 Law of Motion Law of motion: Funktion, die die Veränderung der Zustandsvariable in der Zeit definiert x s+1 = m s 7 2.3 Zielfunktion Zielfunktion objective function bestimmt den outcome einer Entscheidung in einer Zeitperiode s Z.B. Nutzen, Gewinn f s Die Summe aller Zielfunktionswerte ist zu maximieren T! W t = f s s=t (2 8

2.4 Lösungsverfahren Ist der Anfangszustand des Systems mit Sequenz der Kontrollvariablen gegeben und eine So ist die Veränderung des Vektors der Zustandsvariablen x durch das law of motion gegeben Der Anfangszustand x t und die Sequenz u t,t!1 bestimmen damit die Sequenz der Zustandsvariablen über die Zeit x t { } u t,t!1 = u s ;s = t,t +1,...,T!1 x t+1,t = { x s ;s = t,t +1,...,T } 9 2.4 Lösungsverfahren { } Mit z t,t = u t,t!1 " x t+1,t wird die Menge bezeichnet, die aus den Sequenzen der Zustands- und Kontrollgrößen bestehen, die zulässig sind (Nebenbedingungen in jedem Zeitpunkt erfüllen und den Endzustand der erfüllen Es gibt unendliche viele Sequenzen! Die Zielfunktion (2 kann dann geschrieben werden als: z t,t x T W (z t,t,t,t!1 = f s T " s=t (2 10

2.4.1 Value Function Die Value Function ist identisch mit der Zielfunktion berechnet auf ihrem optimalen Kontrollpfad V(x t,t; x T,T = max{w u t,t!1 "# z (u t,t!1, x T,t +1,T!1$ % T!1 = " f s s.t. x s+1 = m s s=t Vergleiche A.de la Fuente S.550!!C s "! n+m #s} Ist das Problem endlich, kann es prinzipiell über Lagrange gelöst werden 11 2.5 Herleitung der Bellman Gleichung 2.5.1 Time Consistency { } Wenn z t,t = u t,t!1, x T eine zulässige Sequenz von Kontrollvariablen und Endpunkten des Zustandsvektors und mit a, b zwei positive Zeitpunkte gegeben sind, die in t! a < b! T "1 liegen, kann die return function W formuliert werden als: W (z t,t,t!1 = W (z t,t t a!1,t,a!1 + W (z t,t a b!1,a,b!1 + W (zt,t b T!1,b,T!1 12

2.5.1 Time Consistency V(x * a,a; x * b,b = max{w (z a,b!1,a,b!1 = f s u a,b!1 s.t. x s+1 = m s a,b, x * a, x * b gegeben, #C s $! n+m %s} b!1 " s=a Jede Zeitspanne eines optimalen Plans ist ebenfalls optimal, gegeben die Anfangs und Endbedingungen des Zustandsvektors. 13 2.5 Herleitung der Belman Gleichung V(x t,t; x T,T = max{w z (u t,t!1, x T,t,T!1 u t,t!1 "# $ % = max { f t (u t + W z (u t+1,t!1, x T,t +1,T!1 u t,u t+1,t!1 "# $ % } Zerlegung der Value Function in eine heutige Entscheidung und eine Entscheidung für alle zukünftigen. = max{ f t (u t + max { z (u t+1,t!1, x T,t +1,T!1 u t u t,u t+1,t!1 "# $ % } s.t. x t+1 = m t (x t,u t } 14

2.5 Herleitung der Bellman Gleichung Bellmann-Gleichung: V(x t,t; x T,T = max f t (u t + V(x t+1,t +1; x T,T s.t. x t+1 = m t (x t,u t } u t,t!1 { } An optimal policy has the property that whatever the initial state and initial decision are, the remaining decisions must constitute an optimal policy with regard to the state resulting from the first decision. Bellman, 1957 15 2.5.2 Policy Function Die Policy Function gibt die optimale Wahl der Kontrollvariable in Abhängigkeit von der Zustandsvariable an. g t (x t Die Policy Function gibt für den heutigen Zeitpunkt den * optimalen Wert der Kontrollvariable mit u t an. Damit ist der Wert der Zustandsvariable für den morgigen Zeitpunkt mit x t+1 = m t [g t (x t ] bestimmt. 16

2.5.3 Lösungsalgorithmus endliche Zeit Die Lösung beginnt mit der letzten Zeitperiode: V(x T!1,T!1 = max u T!1 { f T!1 (u T!1, x T!1 s.t. m T!1 (x T!1,u T!1 = x T gegeben} Es befindet sich hier keine unbekannte Value Function in dem Maximierungsoperator! Ist V(x T!1,T!1 gelöst, so wird der vorletzte Zeitschritt berechnet: V(x T!2,T! 2 = max f T!2 (u T!2, x T!2 + u T!2 { V(x T!1,T!1 s.t. x T!1 = m T!2 (x T!2,u T!2 } 17 3 Optimal Control Im Folgenden werden die Lösungsbedingungen für die dynamische Optimierung in kontinuierlicher Zeit vorgestellt. Diese werden als die Maximum Prinzipien nach Pontryagin bezeichnet. Die Lösung der Optimierung in kontinuierlicher Zeit ist eine sogenannte Trajektorie u(t der Kontrollvariable u und T keine Sequenz {u t } t=0 von Einzelwerten. u(t ist eine Funktion der Zeit 18

3 Optimal Control Die Bewegungsgleichung (Law of Motion der Zustandsvariable(n erzeugt nun ebenfalls keine Sequenz von Einzelwerten in der Zeit sondern eine Funktion der Zustandsvariable in Abhängigkeit von der Zeit:!x t = m(u, x,t 19 3 Optimal Control Formulierung des Optimierungsproblem in kontinuierlicher Zeit { t=0 V(x 0,0 = max W T T 0(u(t t=0, x(t u(t,0!t!t T =!(tf[u(t, x(t,tdt +!(T S[x(T ] " 0 s.t. x(0 = x 0 gegeben,!x(t=m[u(t,x(t,t]} 20

3 Optimal Control mit!(t wird eine Diskontierungsfunktion dargestellt S(T ist eine salvage oder scrap Funktion die es ermöglicht, bestimmte Endwerte in in die Zielfunktion zu integrieren (z.b. Verschrottung des Kapitalbestandes in T verursacht Aufwand 21 3.1 Lösung finiter Zeithorizont Der Planer entscheidet über einen Strom an u (Kontrollvariable. Die hat einen direkten, sofortigen Einfluss auf den Zielfunktionswert F( und einen indirekten Einfluss über die Änderung der Zustandsvariable x. Clearly, a control chosen to maximize just the current return is unlikely to be optimal. We need some way to take into account the effects of current decision on future opportunities. (Angel de la Fuente S. 567 22

3.1.1 Hamilton-Funktion Die Current-Value Hamilton-Funktion setzt sich aus der Zielfunktion F( und dem Wert der Veränderung der Zustandsvariablen zusammen. q t Es werden multipliers eingeführt, diese sind als Preise der Zustandsvariable zu interpretieren. H t = H (u t,q t,t = F t (u t + q t m t (u t = F t ( + q t!x 23 3.1.1 Hamilton-Funktion Thus, we can think of H c as the sum of the immediate payoff from (x,u plus the value of the future gains to accure from th investment in the future represented by the change in the state variable. (Angel de la Fuente S. 568 Schattenpreise: q t Die Hamilton-Funktion erfasst für einen gegebenen Wert des Schattenpreises den gesamten Beitrag einer Wahl u zum Zielfunktionswert. 24

3.1.2 Maximum Bedingungen nach Pontryagin Notwendige und hinreichende Bedingungen für die Existenz einer optimalen Trajektorie 1. 2. max u!h!u H(u, x,q,t! t "[ 0,T ] = "!q =!q!t 3.!H!x =!q 4. Transversalitätsbedingungen vgl. 3.1.3 25 3.1.3 Transversalitätsbedingung Die Transversalitätsbedingung trifft Aussagen zu den Zustandsgrößen in der Periode T. Bei endlichem Planungshorizont wird zumeist gefordert, dass q(t x(t = 0 q(t! 0 gilt. Entweder ist dann x Null oder der Preis für x (Schattenpreis q ist Null. Bei unendlichem Planungshorizont lim#(tq t x t = 0 t!" T =! lim#(tq t $ 0 t!" 26

3.2 Numerische Optimierung Für die Analyse numerischer Probleme kann eine Approximation durch entsprechende Software erfolgen: GAMS General Algebraik Modeling Systme Mathematica R Matlab... 27 Begriffe zu Kapitel 4 Bellman Gleichung Hamilton-Funktion Kontrollvariable Low of Motion Nebenbedingung Optimal Control Policy Function Prinzipien nach Pontryagin Trajektorie Transversalitätsbedingung Value Function Zustandsvariable 28