Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009
2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse aus dem vorherigen Abschnitt zur Optimierung von differenzierbaren Funktionen unter mehreren Nebenbedingungen können wir nun wieder zu einer Art Rezept, der Karush-Kuhn-Tucker-Methode, kurz: KKT-Methode, zusammenfassen Wie vorher finden wir damit aber nur globale Extrema im Innern des Definitionsbereichs, in denen die Zielfunktion u differenzierbar ist Gibt es Punkte im zulässigen Bereich, in denen u nicht differenzierbar ist, so kann man diese»bösen Punkte«evtl mit anderen Argumenten behandeln und die Methode trotzdem noch anwenden Man findet dann eben keine bösen Punkte, selbst wenn sie Maxima sind Findet man maximale zulässige kritische Punkte, so muss man sie dann also noch vergleichen mit den Funktionswerten der Punkte, an denen u nicht differenzierbar ist Ein Beispiel für dieses Vorgehen ist die Maximierung von Cobb-Douglas-Funktionen mit Budget-Restriktionen; diese Funktionen sind zwar für nicht-negative Werte definiert aber nur für echt positive Werte differenzierbar Dort konnten wir im Beispiel aus Abschnitt?? argumentieren, dass keiner der bösen Punkte ein globales Maximum sein kann Dann blieben nur noch die maximalen kritischen Punkte als Kandidaten übrig Hätten wir ein globales Minimum gesucht, so hätten wir auf diese Weise auch ohne die KKT-Methode herausgefunden, dass alle bösen Punkte globale Minima sind, da sie einfach den kleinstmöglichen Nutzen null haben Möchten wir ein globales Maximum einer differenzierbaren Funktion u : k D, X u (X ) unter den differenzierbaren Nebenbedingungen G (X ) = 0 (also g 1 (X ) = 0,, g r (X ) = 0) und H(X ) 0 (also h 1 (X ) 0,, h s (X ) 0) bestimmen, so gehen wir wie folgt vor: Merksatz: KKT-Methode für max{u (X ) : G (X ) = 0,H(X ) 0 }: 1 Bestimme die Lagrange-Funktion L(X ;λ,µ) = u (X ) λ T G (X ) µ T H(X ) (61) 2 Anschließend bestimme alle Lösungen der notwendigen Bedingungen erster Ordnung (Karush-Kuhn-Tucker-System, kurz: KKT-System): L / x1 X ;λ,µ = 0 ( ) L / xk X ;λ,µ = 0 ( ) G (X ) = 0 ( ) µ T H(X ) = 0 ( ) H(X ) 0 ( ) µ 0
66 Die Karush-Kuhn-Tucker-Methode 3 Dazu führe für jede mögliche Kombination von aktiven und nicht aktiven Ungleichungen (entspricht µ 1 = 0 oder µ 1 0,, µ s = 0 oder µ s 0) folgende Schritte durch: (a) Löse das Gleichungssystem bestehend aus allen Gleichungen ( ) und allen Gleichungen aus ( ) mit µ i 0 Kritische Punkte (b) Prüfe, ob die Kandidaten die Ungleichungen ( ) erfüllen Zulässige kritische Punkte 3 Wähle die Kandidaten mit den maximalen Zielfunktionswerten aus Maximale zulässige kritische Punkte Die Methode liefert in den meisten interessanten Fällen tatsächlich globale Maxima, sofern sie sogenannte reguläre Punkte sind Satz 661 Die Funktionen u : k D sowie G : D r und H : D s seien differenzierbar in X 0 D Ferner seien die Gradienten am Punkt X 0 der in X 0 aktiven Nebenbedingungen linear unabhängig (Rangbedingung) Wenn X 0 ein lokales Maximum von max{u (X ) : G (X ) = 0,H(X ) 0,X D } ist, dann ist X 0 ein kritischer Punkt der KKT-Methode Ferner gilt: Ist X 0 ein globales Maximum, so ist X 0 ein maximaler kritischer Punkt der KKT-Methode Zusammengefasst: Kandidaten für globale Maxima sind maximale kritische Punkte, Randpunkte des Definitionsbereichs und Punkte, für die die Rangbedingung verletzt ist Liegt der zulässige Bereich im Innern des Definitionsbereichs D, so fallen Randpunkte als Kandidaten automatisch weg Gilt die Rangbedingung für alle zulässigen Punkte, so fallen Kandidaten mit verletzter Rangbedingung auch weg, und nur maximale kritische Punkte könnten globale Maxima sein Vorsicht: Falls kein globales Maximum existiert, dann kann trotzdem ein maximaler kritischer Punkt der KKT-Methode existieren, und man weiß nichts über die Qualität seines Zielfunktionswerts Für kompakte zulässige Bereiche hingegen ist die Existenz eines globalen Maximums garantiert Der beste aller Fälle ist also: Der zulässige Bereich ist kompakt sowie im Innern von D enthalten und die Rangbedinung gilt dort überall Dann sind die maximalen kritischen Punkte der KKT-Methode auch globale Maxima Die Rangbedingung eine von vielen möglichen sogenannten Regularitätsbedingungen, die die Rangbedingung ersetzen können kann für sehr einfache Beispiele verletzt sein, so dass es sein kann, dass man globale Extrema mit der KKT-Methode übersieht Es gibt also einfache nicht-lineare differenzierbare Optimierungsaufgaben, bei denen das eindeutige Extremum keine Lösung des KKT-Systems ist Ein solches Beispiel muten wir Ihnen mal zu, um Sie zu sensibilisieren Betrachten Sie das differenzierbare Optimierungsproblem max x : y 0, y x 2
4 y h 2 (1, 0) y h 2 (0, 0) x x h 1 (0, 0) h 1 (1, 1) Abb 61: Beispiel für ein Extremum, das die KKT-Methode nicht findet Die Zielfunktion und die Nebenbedingungen können formuliert werden als u (x,y ) := x, h 1 (x,y ) := y 0, h 2 (x,y ) := y x 2 0 Damit ergibt sich die Lagrange-Funktion L(x,y ;λ,µ) := x + λy µ(y x 2 ) Mit bloßem Auge sieht man, dass der Nullpunkt (0, 0) zulässig und optimal ist (siehe Abb 61) Aber gleich die erste Bedingung des KKT-Systems ist durch (0, 0) verletzt: L (0, 0) = 1 2µx = 1 2µ 0 = 1 0 x Ebenfalls in Abbildung 61 sieht man, dass die Gradienten ausgerechnet am Nullpunkt in entgegengesetzte Richtungen zeigen: Also sind sie nicht linear unabhängig, und am Nullpunkt ist die Rangbedingung somit verletzt Wie ist der Zusammenhang von Gleichung und Geometrie? Wann existieren Lagrange-Multiplikatoren, so dass die partiellen Ableitungen der Lagrange- Funktion nach x 1,,x k in einem Extremum X 0 allesamt gleich null sind? Wenn Sie die KKT-Gleichungen so umstellen, dass die partiellen Ableitungen der Zielfunktion auf der linken Seite isoliert stehen, dann sehen Sie, dass die Bedingungen gleichbedeutend sind mit folgender Bedingung: Der Gradient der Zielfunktion in X 0 hat eine Darstellung als Linearkombination der Gradienten der im Punkt X 0 aktiven Nebenbedingungen Die Lagrange-Multiplikatoren können dann gerade als die Koeffizienten dieser Linearkombination gewählt werden Im Beispiel: Der Gradient ( 1, 0) der Zielfunktion u (x, y ) = x lässt sich nicht aus den Gradienten der Nebenbedingungen im Punkt (0,0) linear kombinieren (Das würde immer gehen, wenn diese linear unabhängig wären sind sie aber nicht) Also gilt auch die KKT-Bedingung nicht
66 Die Karush-Kuhn-Tucker-Methode 5 Insgesamt füllt die allgemeine, korrekte Behandlung differenzierbarer Optimierungsaufgaben ganze Bücher Wir müssen die theoretische Diskussion hier abbrechen, da es zu viele gefährliche Fallstricke gibt, die man nur durch sehr viel gründlichere Mathematik, als uns hier möglich ist, alle vermeiden kann Betrachten wir lieber ein Beispiel Hierzu stellen wir uns eine Wiese mit einem Schaf vor, das an einem Pflock angebunden ist Das heißt, das arme Schaf kommt nicht überall zum Grasen hin, wo es gerne hinmöchte Der Pflock stehe an Position (0,0), und das Seil habe eine Länge von 10 m Da wir es mit einem agrarökonomischen Schaf zu tun haben, versucht es seine Gras-Nutzenfunktion u (x,y,t ) = x 2 y 2 + 4y + 10 9 t 1 2 2 zu maximieren Hierbei sind x und y die Koordinaten, an denen das Schaf grast und t [0, 1] beschreibt die aktuelle Jahreszeit, 0 für den Winterbegin, 0,25 für den Frühlingsbeginn, 0,5 für den Sommerbeginn und 0,75 für den Beginn des Herbstes (Offenbar verfügt es über eine besonders genaue Vorstellung, wann wo das beste Gras ist) Wir wollen nun die optimale Grasposition des Schafes zum Beginn des Sommers bestimmen Die Nutzenfunktion u (x, y, t ) können wir einfach als Zielfunktion übernehmen Die Bedingung mit dem Pflock ist eine Kreisungleichung der Form (x 0) 2 + (y 0) 2 10, was sich zu h(x,y,t ) = x 2 + y 2 10 0 umschreiben lässt Die Nebenbedingung für die Jahreszeit lautet einfach t = 1 /2 bzw g (x,y,t ) = t 1 2 = 0 Die KKT-Methode ist geeignet: Zunächst einmal ist der zulässige Bereich kompakt, denn er ist durch eine stetige Ungleichung gegeben (abgeschlossen) und in einer Box enthalten (beschränkt) Ferner gilt: Die Gradienten der Nebenbedingungen lauten g (x,y,t ) = 00 1 /2 und h(x,y,t ) = 2x 2y 0 Falls in einem Punkt (x 0,y 0,t 0 ) gilt, dass h(x 0,y 0,t 0 ) < 0, so ist { g (x 0,y 0,t 0 )} natürlich linear unabhängig Falls h(x 0,y 0,t 0 ) = 0, so ist insbesondere x 0 0 oder y 0 0, wodurch in diesem Falle auch { h(x 0,y 0,t 0 ), g (x 0,y 0,t 0 )} linear unabhängig ist Also gilt die Rangbedingung überall Ferner sind u, g und h auf ganz 3 definiert und differenzierbar Also finden wir die globalen Maxima im zulässigen Bereich mit der KKT-Methode
6 Mit Hilfe der Funktionen u, h und g können wir nun die Lagrange-Funktion angeben: L(x,y,t ;λ,µ) = x 2 y 2 + 4y + 10 9 t 1 2 2 λ t 1 2 Das zugehörige Gleichungssystem lautet L! / x x,y,t ;λ,µ = 2x 2µx = 0 L! / y x,y,t ;λ,µ = 2y + 4 2µy = 0 L! / t x,y,t ;λ,µ = λ = 0 g (x,y,t ) = t 1! /2 = 0 µh(x,y,t ) = µ(x 2 + y 2! 10) = 0 h(x,y,t ) = x 2 + y 2 10! 0! µ 0 µ(x 2 + y 2 10) Wir schließen sofort λ = 0 und t = 1 /2 Eine Fallunterscheidung nach µ = 0 oder µ 0 führt uns zu einem kritischen Punkt: Fall 1: µ = 0 (Ungleichung nicht aktiv): 2x = 0 2y + 4 = 0 = x = 0 y = 2 Wegen h(0,2) = 0 2 + 2 2 10 ist (0,2) ein zulässiger kritischer Punkt und führt zu einem Nutzen von u (0, 2, 1 /2) = 14 Fall 2: µ 0 (Ungleichung aktiv): x 2 + y 2 10 = 0 (1) 2x 2µx = 0 (2) 2y + 4 2µy = 0 (3) Aus Gleichung (2) schließen wir 2x (1 µ) = 0 Es gilt also x = 0 oder µ = 1 Im ersten Fall folgern wir aus Gleichung (1) y = ± 10, was zu Nutzen von u 0, 10, /2 1 = 4 10 12,649 bzw u 0, 10, 1 /2 = 4 10 12,649 führt Im zweiten Fall µ = 1 reduziert sich unser Gleichungssystem zu x 2 + y 2 10 = 0 4y + 4 = 0 woraus wir y = 1 und x = ±3 schließen Es ergeben sich Nutzen von u (3, 1, 1 /2) = 22 bzw u ( 3, 1, 1 /2) = 22 Am Sommeranfang sollte das agrarökonomische Schaf also an den Position (3, 1) bzw ( 3, 1) grasen, um einen maximalen Nutzen von 22 zu erzielen,