Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Ähnliche Dokumente
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

Rückblick auf die letzte Vorlesung

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

Analysis II 14. Übungsblatt

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Musterlösung zu Blatt 1

Kuhn-Tucker Bedingung

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

3 Optimierung mehrdimensionaler Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

TECHNISCHE UNIVERSITÄT MÜNCHEN

2 Extrema unter Nebenbedingungen

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung

Nachklausur zur Analysis 2, SoSe 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014

Probeklausur zur Analysis 2, SoSe 2017

Lagrange-Multiplikatoren

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Extrema multivariater Funktionen

Aufgabensammlung zum UK Mathematische Optimierung

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.

Probeklausur. 1 Stetigkeit [7 Punkte] 2 Differenzierbarkeit [10 Punkte] Ferienkurs Analysis 2 für Physiker SS Karolina Stoiber Aileen Wolf

Mehrdimensionale Differentialrechnung Übersicht

Optimieren unter Nebenbedingungen

16. FUNKTIONEN VON MEHREREN VARIABLEN

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

9 Differentialrechnung für Funktionen in n Variablen

Folgerungen aus dem Auflösungsatz

1.6 Implizite Funktionen

Klausur zu Analysis II - Lösungen

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte

55 Lokale Extrema unter Nebenbedingungen

Extrema von Funktionen mit Nebenbedingung

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.4 Anwendungen (Teil 2): Extremwerte

7.11. Extrema unter Nebenbedingungen

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017

Klausurrepetitorium ABWL

Wirtschaftsmathematik II

Anleitung zu Blatt 5 Analysis III für Studierende der Ingenieurwissenschaften

10. Übungsblatt zur Analysis II

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Übung 5, Analytische Optimierung

1 Umkehrfunktionen und implizite Funktionen

Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag

10 Extremwerte mit Nebenbedingungen

BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften

5.10. Mehrdimensionale Extrema und Sattelpunkte

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

C. Eicher Analysis Study Center ETH Zürich HS Extremwerte

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 89

Vorlesung Maschinelles Lernen

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Semestrale (Wiederholung) HÖHERE MATHEMATIK 3 für Chemieingenieurwesen

KAPITEL 3. Konvexe Funktionen

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

1 Übungsaufgaben zu Kapitel 1

2 Extrema unter Nebenbedingungen

Mathematik 2 für Wirtschaftsinformatik

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler

6 Die Bedeutung der Ableitung

Extremalprobleme mit Nebenbedingungen

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

8 Extremwerte reellwertiger Funktionen

1. EINFÜHRUNG INS STATE-PRICING 1

Anwendungen der Differentialrechnung

(k!) 2 ((n + 1)!) 2 n.

11 Optimierung von Funktionen einer Veränderlichen

Extrema mit Nebenbedingungen

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Übungen zur Vorlesung Mathematik im Querschnitt Lösungsvorschlag

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Dualität bei konvexer Optimierung

3. Mai Zusammenfassung. g x. x i (x).

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

Extremwerte von Funktionen mehrerer reeller Variabler

Tutorium Mathematik II, M Lösungen

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

Diplom Vorprüfung bzw. Bachelor Modulprüfung Höhere Mathematik II für die Fachrichtung Physik. Lösungsvorschläge. det

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Vorlesung Maschinelles Lernen

7.1 Matrizen und Vektore

9. Übungsblatt zur Vorlesung Mathematik I für Informatik

TECHNISCHE UNIVERSITÄT MÜNCHEN

1 Einstimmung 2. 2 Die Reduktionsmethode 5. 3 Die Methode der Lagrange-Multiplikatoren 6. 4 *Ergänzungen und Verallgemeinerungen* 10

Musterlösungen Aufgabenblatt 2

Transkript:

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009

2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse aus dem vorherigen Abschnitt zur Optimierung von differenzierbaren Funktionen unter mehreren Nebenbedingungen können wir nun wieder zu einer Art Rezept, der Karush-Kuhn-Tucker-Methode, kurz: KKT-Methode, zusammenfassen Wie vorher finden wir damit aber nur globale Extrema im Innern des Definitionsbereichs, in denen die Zielfunktion u differenzierbar ist Gibt es Punkte im zulässigen Bereich, in denen u nicht differenzierbar ist, so kann man diese»bösen Punkte«evtl mit anderen Argumenten behandeln und die Methode trotzdem noch anwenden Man findet dann eben keine bösen Punkte, selbst wenn sie Maxima sind Findet man maximale zulässige kritische Punkte, so muss man sie dann also noch vergleichen mit den Funktionswerten der Punkte, an denen u nicht differenzierbar ist Ein Beispiel für dieses Vorgehen ist die Maximierung von Cobb-Douglas-Funktionen mit Budget-Restriktionen; diese Funktionen sind zwar für nicht-negative Werte definiert aber nur für echt positive Werte differenzierbar Dort konnten wir im Beispiel aus Abschnitt?? argumentieren, dass keiner der bösen Punkte ein globales Maximum sein kann Dann blieben nur noch die maximalen kritischen Punkte als Kandidaten übrig Hätten wir ein globales Minimum gesucht, so hätten wir auf diese Weise auch ohne die KKT-Methode herausgefunden, dass alle bösen Punkte globale Minima sind, da sie einfach den kleinstmöglichen Nutzen null haben Möchten wir ein globales Maximum einer differenzierbaren Funktion u : k D, X u (X ) unter den differenzierbaren Nebenbedingungen G (X ) = 0 (also g 1 (X ) = 0,, g r (X ) = 0) und H(X ) 0 (also h 1 (X ) 0,, h s (X ) 0) bestimmen, so gehen wir wie folgt vor: Merksatz: KKT-Methode für max{u (X ) : G (X ) = 0,H(X ) 0 }: 1 Bestimme die Lagrange-Funktion L(X ;λ,µ) = u (X ) λ T G (X ) µ T H(X ) (61) 2 Anschließend bestimme alle Lösungen der notwendigen Bedingungen erster Ordnung (Karush-Kuhn-Tucker-System, kurz: KKT-System): L / x1 X ;λ,µ = 0 ( ) L / xk X ;λ,µ = 0 ( ) G (X ) = 0 ( ) µ T H(X ) = 0 ( ) H(X ) 0 ( ) µ 0

66 Die Karush-Kuhn-Tucker-Methode 3 Dazu führe für jede mögliche Kombination von aktiven und nicht aktiven Ungleichungen (entspricht µ 1 = 0 oder µ 1 0,, µ s = 0 oder µ s 0) folgende Schritte durch: (a) Löse das Gleichungssystem bestehend aus allen Gleichungen ( ) und allen Gleichungen aus ( ) mit µ i 0 Kritische Punkte (b) Prüfe, ob die Kandidaten die Ungleichungen ( ) erfüllen Zulässige kritische Punkte 3 Wähle die Kandidaten mit den maximalen Zielfunktionswerten aus Maximale zulässige kritische Punkte Die Methode liefert in den meisten interessanten Fällen tatsächlich globale Maxima, sofern sie sogenannte reguläre Punkte sind Satz 661 Die Funktionen u : k D sowie G : D r und H : D s seien differenzierbar in X 0 D Ferner seien die Gradienten am Punkt X 0 der in X 0 aktiven Nebenbedingungen linear unabhängig (Rangbedingung) Wenn X 0 ein lokales Maximum von max{u (X ) : G (X ) = 0,H(X ) 0,X D } ist, dann ist X 0 ein kritischer Punkt der KKT-Methode Ferner gilt: Ist X 0 ein globales Maximum, so ist X 0 ein maximaler kritischer Punkt der KKT-Methode Zusammengefasst: Kandidaten für globale Maxima sind maximale kritische Punkte, Randpunkte des Definitionsbereichs und Punkte, für die die Rangbedingung verletzt ist Liegt der zulässige Bereich im Innern des Definitionsbereichs D, so fallen Randpunkte als Kandidaten automatisch weg Gilt die Rangbedingung für alle zulässigen Punkte, so fallen Kandidaten mit verletzter Rangbedingung auch weg, und nur maximale kritische Punkte könnten globale Maxima sein Vorsicht: Falls kein globales Maximum existiert, dann kann trotzdem ein maximaler kritischer Punkt der KKT-Methode existieren, und man weiß nichts über die Qualität seines Zielfunktionswerts Für kompakte zulässige Bereiche hingegen ist die Existenz eines globalen Maximums garantiert Der beste aller Fälle ist also: Der zulässige Bereich ist kompakt sowie im Innern von D enthalten und die Rangbedinung gilt dort überall Dann sind die maximalen kritischen Punkte der KKT-Methode auch globale Maxima Die Rangbedingung eine von vielen möglichen sogenannten Regularitätsbedingungen, die die Rangbedingung ersetzen können kann für sehr einfache Beispiele verletzt sein, so dass es sein kann, dass man globale Extrema mit der KKT-Methode übersieht Es gibt also einfache nicht-lineare differenzierbare Optimierungsaufgaben, bei denen das eindeutige Extremum keine Lösung des KKT-Systems ist Ein solches Beispiel muten wir Ihnen mal zu, um Sie zu sensibilisieren Betrachten Sie das differenzierbare Optimierungsproblem max x : y 0, y x 2

4 y h 2 (1, 0) y h 2 (0, 0) x x h 1 (0, 0) h 1 (1, 1) Abb 61: Beispiel für ein Extremum, das die KKT-Methode nicht findet Die Zielfunktion und die Nebenbedingungen können formuliert werden als u (x,y ) := x, h 1 (x,y ) := y 0, h 2 (x,y ) := y x 2 0 Damit ergibt sich die Lagrange-Funktion L(x,y ;λ,µ) := x + λy µ(y x 2 ) Mit bloßem Auge sieht man, dass der Nullpunkt (0, 0) zulässig und optimal ist (siehe Abb 61) Aber gleich die erste Bedingung des KKT-Systems ist durch (0, 0) verletzt: L (0, 0) = 1 2µx = 1 2µ 0 = 1 0 x Ebenfalls in Abbildung 61 sieht man, dass die Gradienten ausgerechnet am Nullpunkt in entgegengesetzte Richtungen zeigen: Also sind sie nicht linear unabhängig, und am Nullpunkt ist die Rangbedingung somit verletzt Wie ist der Zusammenhang von Gleichung und Geometrie? Wann existieren Lagrange-Multiplikatoren, so dass die partiellen Ableitungen der Lagrange- Funktion nach x 1,,x k in einem Extremum X 0 allesamt gleich null sind? Wenn Sie die KKT-Gleichungen so umstellen, dass die partiellen Ableitungen der Zielfunktion auf der linken Seite isoliert stehen, dann sehen Sie, dass die Bedingungen gleichbedeutend sind mit folgender Bedingung: Der Gradient der Zielfunktion in X 0 hat eine Darstellung als Linearkombination der Gradienten der im Punkt X 0 aktiven Nebenbedingungen Die Lagrange-Multiplikatoren können dann gerade als die Koeffizienten dieser Linearkombination gewählt werden Im Beispiel: Der Gradient ( 1, 0) der Zielfunktion u (x, y ) = x lässt sich nicht aus den Gradienten der Nebenbedingungen im Punkt (0,0) linear kombinieren (Das würde immer gehen, wenn diese linear unabhängig wären sind sie aber nicht) Also gilt auch die KKT-Bedingung nicht

66 Die Karush-Kuhn-Tucker-Methode 5 Insgesamt füllt die allgemeine, korrekte Behandlung differenzierbarer Optimierungsaufgaben ganze Bücher Wir müssen die theoretische Diskussion hier abbrechen, da es zu viele gefährliche Fallstricke gibt, die man nur durch sehr viel gründlichere Mathematik, als uns hier möglich ist, alle vermeiden kann Betrachten wir lieber ein Beispiel Hierzu stellen wir uns eine Wiese mit einem Schaf vor, das an einem Pflock angebunden ist Das heißt, das arme Schaf kommt nicht überall zum Grasen hin, wo es gerne hinmöchte Der Pflock stehe an Position (0,0), und das Seil habe eine Länge von 10 m Da wir es mit einem agrarökonomischen Schaf zu tun haben, versucht es seine Gras-Nutzenfunktion u (x,y,t ) = x 2 y 2 + 4y + 10 9 t 1 2 2 zu maximieren Hierbei sind x und y die Koordinaten, an denen das Schaf grast und t [0, 1] beschreibt die aktuelle Jahreszeit, 0 für den Winterbegin, 0,25 für den Frühlingsbeginn, 0,5 für den Sommerbeginn und 0,75 für den Beginn des Herbstes (Offenbar verfügt es über eine besonders genaue Vorstellung, wann wo das beste Gras ist) Wir wollen nun die optimale Grasposition des Schafes zum Beginn des Sommers bestimmen Die Nutzenfunktion u (x, y, t ) können wir einfach als Zielfunktion übernehmen Die Bedingung mit dem Pflock ist eine Kreisungleichung der Form (x 0) 2 + (y 0) 2 10, was sich zu h(x,y,t ) = x 2 + y 2 10 0 umschreiben lässt Die Nebenbedingung für die Jahreszeit lautet einfach t = 1 /2 bzw g (x,y,t ) = t 1 2 = 0 Die KKT-Methode ist geeignet: Zunächst einmal ist der zulässige Bereich kompakt, denn er ist durch eine stetige Ungleichung gegeben (abgeschlossen) und in einer Box enthalten (beschränkt) Ferner gilt: Die Gradienten der Nebenbedingungen lauten g (x,y,t ) = 00 1 /2 und h(x,y,t ) = 2x 2y 0 Falls in einem Punkt (x 0,y 0,t 0 ) gilt, dass h(x 0,y 0,t 0 ) < 0, so ist { g (x 0,y 0,t 0 )} natürlich linear unabhängig Falls h(x 0,y 0,t 0 ) = 0, so ist insbesondere x 0 0 oder y 0 0, wodurch in diesem Falle auch { h(x 0,y 0,t 0 ), g (x 0,y 0,t 0 )} linear unabhängig ist Also gilt die Rangbedingung überall Ferner sind u, g und h auf ganz 3 definiert und differenzierbar Also finden wir die globalen Maxima im zulässigen Bereich mit der KKT-Methode

6 Mit Hilfe der Funktionen u, h und g können wir nun die Lagrange-Funktion angeben: L(x,y,t ;λ,µ) = x 2 y 2 + 4y + 10 9 t 1 2 2 λ t 1 2 Das zugehörige Gleichungssystem lautet L! / x x,y,t ;λ,µ = 2x 2µx = 0 L! / y x,y,t ;λ,µ = 2y + 4 2µy = 0 L! / t x,y,t ;λ,µ = λ = 0 g (x,y,t ) = t 1! /2 = 0 µh(x,y,t ) = µ(x 2 + y 2! 10) = 0 h(x,y,t ) = x 2 + y 2 10! 0! µ 0 µ(x 2 + y 2 10) Wir schließen sofort λ = 0 und t = 1 /2 Eine Fallunterscheidung nach µ = 0 oder µ 0 führt uns zu einem kritischen Punkt: Fall 1: µ = 0 (Ungleichung nicht aktiv): 2x = 0 2y + 4 = 0 = x = 0 y = 2 Wegen h(0,2) = 0 2 + 2 2 10 ist (0,2) ein zulässiger kritischer Punkt und führt zu einem Nutzen von u (0, 2, 1 /2) = 14 Fall 2: µ 0 (Ungleichung aktiv): x 2 + y 2 10 = 0 (1) 2x 2µx = 0 (2) 2y + 4 2µy = 0 (3) Aus Gleichung (2) schließen wir 2x (1 µ) = 0 Es gilt also x = 0 oder µ = 1 Im ersten Fall folgern wir aus Gleichung (1) y = ± 10, was zu Nutzen von u 0, 10, /2 1 = 4 10 12,649 bzw u 0, 10, 1 /2 = 4 10 12,649 führt Im zweiten Fall µ = 1 reduziert sich unser Gleichungssystem zu x 2 + y 2 10 = 0 4y + 4 = 0 woraus wir y = 1 und x = ±3 schließen Es ergeben sich Nutzen von u (3, 1, 1 /2) = 22 bzw u ( 3, 1, 1 /2) = 22 Am Sommeranfang sollte das agrarökonomische Schaf also an den Position (3, 1) bzw ( 3, 1) grasen, um einen maximalen Nutzen von 22 zu erzielen,