Mathematische Methoden der VWL
|
|
- Bella Roth
- vor 6 Jahren
- Abrufe
Transkript
1 Mathematische Methoden der VWL Kapitel 2: Maximierung mit Nebenbedingungen Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/ / 58
2 Syllabus Syllabus 2.1 Das Lagrange-Verfahren 2.2 Quasi-Konkavität 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 2.4 Der Lagrange-Parameter 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion 2.7 Das Kuhn-Tucker-Verfahren 2 / 58
3 2.1 Das Lagrange-Verfahren 2.1 Das Lagrange-Verfahren Mit den mathematischen Methoden aus Kapitel 1 ist es lediglich möglich Optimierungsprobleme zu lösen, bei denen die Zielfunktion ein Maximum (oder Minimum) besitzt. Um auch Zielfunktionen behandeln zu können, die über den gesamten Definitionsbereich steigen (oder fallen), müssen wir unser Instrumentarium um Nebenbedingungen (NB) erweitern. In diesem Zusammenhang lernen wir das sogenannte Kuhn-Tucker-Theorem kennen. Vorher beschäftigen wir uns jedoch mit dem weitaus gebräuchlicheren Spezialfall des Kuhn-Tucker-Ansatzes: dem Lagrange-Theorem. 3 / 58
4 2.1 Das Lagrange-Verfahren Der Lagrange-Ansatz kann nur dann angewendet werden, wenn nur eine Nebenbedingung existiert, wenn klar ist, dass diese Nebenbedingung im Optimum binden wird und wenn klar ist, dass alle Entscheidungsvariablen x i im Optimum größer Null sein werden (man sagt auch: die Nicht-Negativitäts-Beschränkunen dürfen nicht binden, siehe Kapitel 2.5). 4 / 58
5 2.1 Das Lagrange-Verfahren Optimierungsproblem in Standardform Wir betrachten folgendes Maximierungsproblem der Form unter der Nebenbedingung max x 1,...,x n z(x 1,..., x n ) g(x 1,..., x n ) b, wobei g( ) eine Funktion ist und b ein reeller Parameter. Zudem wissen wir vorab, dass die Nebenbedingung im Optimum binden wird: g(x 1,..., x n ) = b, 5 / 58
6 2.1 Das Lagrange-Verfahren Die Lagrange-Funktion (im Standardform-Fall) Die Lagrange-Funktion wird wiefolgt gebildet: L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] Die Lagrange-Funktion ist also einfach die ursprüngliche Zielfunktion abzüglich eines Produkts. Dieses Produkt setzt sich zusammen aus dem sogenannten Lagrange-Parameter λ und der Nebenbedingung, die so aufgelöst wurde, dass alle Terme auf der linken Seite stehen und zusammen gleich 0 sind. Um das Maximierungsproblem zu lösen, wird nun die Lagrange-Funktion maximiert: max L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] x 1,...,x n 6 / 58
7 2.1 Das Lagrange-Verfahren Nicht standardförmige Optimierungsprobleme Bei Optimierungsproblemen, die sich nicht in der Standardform befinden, muss man die Lagrange-Funktion etwas anpassen: Situation 1: Minimierungsproblem statt Maximierungsproblem Die zu maximierende Lagrange-Funktion wird zu: max x 1,...,x n L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] Situation 2: Nebenbedingung der Form g(x 1,..., x n ) b Die zu maximierende Lagrange-Funktion wird zu: max L(x 1,..., x n, λ) = z(x 1,..., x n ) + λ [g(x 1,..., x n ) b] x 1,...,x n Situation 3: Situation 1 + Situation 2 Die zu maximierende Lagrange-Funktion wird zu: max L(x 1,..., x n, λ) = z(x 1,..., x n ) + λ [g(x 1,..., x n ) b] x 1,...,x n 7 / 58
8 2.1 Das Lagrange-Verfahren Das Lagrange-Theorem Zur Vereinfachung der Notation sei x = (x 1,..., x n ). Außerdem bezeichnen wir mit f i die partielle Ableitung einer beliebigen Funktion f (x) nach x i. Theorem (2.1 Lagrange-Theorem) Wenn der Vektor x die Funktion z(x) unter der Nebenbedingung g(x) = b maximiert, und wenn g i (x ) 0 für wenigstens ein i {1,..., n}, dann existiert eine reelle Zahl λ, so dass L i (x, λ ) = 0 i {1,..., n} und L λ (x, λ ) = 0. 8 / 58
9 2.1 Das Lagrange-Verfahren Notwendige Bedingungen für ein Maximum Das Theorem von Lagrange besagt nur, dass die Bedingungen an die ersten Ableitungen der Lagrange-Funktion notwendige Bedingungen für eine Lösung des Maximierungsproblems sind, d.h., jede Lösung muss diese Bedingungen erfüllen. Die Lagrange-Bedingungen werden auch Bedingungen erster Ordnung genannt. Es gibt (n+1) solcher Bedingungen mit (n+1) Unbekannten, nämlich den Werten x 1,..., x n und λ. Wenn dieses Gleichungssystem eine Lösung hat, dann erhält man einen (eventuell auch mehrere) Kandidaten für die Lösung des Maximierungsproblems. Bei diesem Kandidaten kann es sich jedoch auch um ein Minimum oder um ein lokales (statt einem globalen) Maximum handeln. Darum ist das folgende Theorem sehr nützlich. 9 / 58
10 2.1 Das Lagrange-Verfahren Hinreichende Bedingungen für ein Maximum Theorem (2.2 Hinreichende Bedingungen für ein Maximum) Die Lagrange-Bedingungen sind nicht nur notwendig, sondern auch hinreichend für ein eindeutiges Maximum, wenn die Menge, über die maximiert wird, konvex ist und die Zielfunktion z(x) global streng quasikonkav ist. Bei vielen einfachen Optimierungsproblemen ist die Menge, über die maximiert wird, eine Gerade. Eine Gerade ist immer eine konvexe Menge. In diesem Fall gibt es also kein Problem. Bei komplizierteren Optimierungsproblemen muss man überprüfen, ob die NB eine konvexe Menge einschließen. Es bleibt zu klären, wann eine Funktion streng quasikonkav ist. 10 / 58
11 2.2 Quasikonkave Funktionen 2.2 Quasikonkave Funktionen Wir wissen bereits aus Kapitel 1, dass die Bedingungen erster Ordnung die optimale Lösung eindeutig charakterisieren, wenn die Zielfunktion streng konkav ist. Die Forderung nach strenger Konkavität ist jedoch in diesem Fall etwas zu stark. Es genügt, dass die Funktion streng quasikonkav ist. Um sich den subtilen Unterschied zwischen Konkavität und Quasikonkavität klar zu machen, vergleichen wir die jeweiligen Definitionen miteinander. 11 / 58
12 2.2 Quasikonkave Funktionen Definition (1.1 Konkavität) Eine Funktion z(x) : R N R ist (streng) konkav, genau dann wenn für alle k (0, 1) und alle x, x R N gilt: z(kx + (1 k)x ) (>) kz(x ) + (1 k)z(x ) Definition (2.1 Quasikonkavität) Eine Funktion z(x) : R N R ist (streng) quasikonkav genau dann, wenn für alle k (0, 1) und alle x, x R N gilt: z(x ) z(x ) z(kx + (1 k)x ) (>) z(x ) 12 / 58
13 2.2 Quasikonkave Funktionen Eine streng konkave Funktion z(x) 0 x 13 / 58
14 2.2 Quasikonkave Funktionen Eine streng quasikonkave Funktion z(x) 0 x 14 / 58
15 2.2 Quasikonkave Funktionen Es gibt drei Gründe, weswegen Theorem 2.2 vom im Vergleich zur Konkavität schwächeren Konzept der Quasikonkavität ausgeht: 1 Quasikonkavität ist das allgemeinere Konzept von beiden. Das strengere Konkavitäts-Konzept würde viele Funktionen nicht erfassen, für die das Lagrange-Theorem jedoch eine hinreichende Bedingung darstellen würde. Jede konkave Funktion ist auch quasikonkav. Aber nicht jede quasikonkave Funktion ist auch konkav. Beispiel: Glockenkurve ist quasikonkav aber nicht konkav. 2 Die Eigenschaft der Quasikonkavität bleibt bei einer monotonen Transformation der Funktion erhalten (Nutzenfunktionen!). Das gilt nicht für die Eigenschaft der Konkavität. 3 Die oberen Konturmengen (auch Höhenlinien genannt, z.b. Indifferenzkurven, Isogewinnlinien) einer quasikonkaven Funktion sind stets konvex. 15 / 58
16 2.2 Quasikonkave Funktionen Interpretation Hinter der Tatsache, dass jede quasikonkave Funktion konvexe Konturmengen hat, verbirgt sich die Intuition von Theorem 2.2. Wenn sowohl die Menge, über die maximiert wird, als auch die Konturmengen der Zielfunktion konvex sind, wird es nur einen Punkt geben, (nämlich das Optimum), an dem sich die beiden Mengen berühren werden. Aus diesem Grund handelt es sich bei den Lagrange-BEO um hinreichende Bedingungen, wenn die Zielfunktion quasikonkav ist und über eine konvexe Menge maximiert wird. 16 / 58
17 2.2 Quasikonkave Funktionen Exkurs: Konvexe und nichtkonvexe Mengen x 2 0 x 1 17 / 58
18 2.2 Quasikonkave Funktionen Beispiel für nicht-konvexe Nebenbedingungsmenge x 2 0 x 1 18 / 58
19 2.2 Quasikonkave Funktionen Beispiel für nicht-quasikonkave Zielfunktion x 2 0 x 1 19 / 58
20 2.2 Quasikonkave Funktionen Beispiel für konvexe NB-Menge und quasikonkave Zielfunktion x 2 0 x 1 20 / 58
21 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Modell-Setup Ein Landwirt hat 12 Hektar Land, auf dem er Getreide oder Gemüse anbauen kann. Sei: x 1 Hektar Land für Getreideproduktion x 2 Hektar Land für Gemüseproduktion G 1 (x 1 ) G 2 (x 2 ) Gewinn aus Getreideproduktion, G 1 (x 1 ) = 8x 1 Gewinn aus Gemüseproduktion, G 2 (x 2 ) = 32 x 2 21 / 58
22 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Optimierungsproblem Sein Gewinnmaximierungsproblem lautet folglich: unter der Nebenbedingung max x 1,x 2 8x x 2 x 1 + x Da der Grenzgewinn aus dem Gemüse- und dem Getreideanbau immer positiv ist, kann es nicht optimal sein, Land brach liegen zu lassen. Also muss im Optimum die Nebenbedingung mit Gleichheit erfüllt sein. 22 / 58
23 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Das Lagrange-Verfahren 1 Aufstellen der Lagrange-Funktion: L(x 1, x 2, λ) = 8x x 2 λ(x 1 + x 2 12) 2 Partielle Ableitungen bilden und gleich 0 setzen: L x 1 = 8 λ = 0 L x 2 = 16 1 λ = 0 x2 L λ = x 1 x = 0 23 / 58
24 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 3 Auflösen dieses Gleichungssystems nach den drei Unbekannten x 1, x 2 und λ: λ = 8 Interpretation x 2 = 4 x 1 = 8 Der Landwirt wird den Gemüseanbau solange ausdehnen, bis der Grenzertrag einer Einheit Land beim Gemüseanbau genau so groß ist wie der Grenzertrag einer Einheit Land beim Getreideanbau. Zeigen Sie rechnerisch, dass diese Aussage stimmt. 24 / 58
25 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 25 / 58
26 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Man kann das auch sofort an den beiden ersten Lagrange-Bedingungen erkennen, wenn man dort jeweils λ auf die rechte Seite bringt und dann beide Gleichungen durcheinander dividiert: 8 16 = G 1 (x 1) x2 G 2 (x 2) = λ λ = 1 Übrigens: Der Lagrange-Parameter λ ist genau so groß wie der Grenzgewinn aus einem zusätzlichen Hektar Land (egal ob in der Getreide- oder Gemüseverwendung). Da dies kein Zufall ist, widmen wir dem Lagrange-Parameter das nächste Unterkapitel. 26 / 58
27 2.4 Der Lagrange-Parameter 2.4 Der Lagrange-Parameter Lagrange-Parameter sind nicht nur ein sehr nützliches mathematisches Hilfsmittel, sie haben auch eine wichtige ökonomische Interpretation: Der Lagrange-Parameter gibt an, um welchen Betrag sich der Wert der Zielfunktion im Optimum ändert, wenn die Nebenbedingung um eine marginale Einheit gelockert wird. Somit gibt der Lagrange-Parameter auch die maximale Zahlungsbereitschaft für eine marginale Ausweitung der Nebenbedingung an. Der letztgenannten Interpretation verdankt der Lagrange-Parameter im Übrigen seinen Namen: Schattenpreis (einer Lockerung der Nebenbedingung). 27 / 58
28 2.4 Der Lagrange-Parameter Beispiele 1 Landwirt maximiert seinen Gewinn unter einer Bodenbeschränkung. λ gibt an, um wieviel der Gewinn des Landwirtes steigen würde, wenn er eine zusätzliche Einheit Boden zur Verfügung hätte. 2 Konsument maximiert seinen Nutzen unter einer Budgetbeschränkung. λ gibt an, um wieviel der Nutzen des Konsumenten steigt, wenn er eine zusätzliche Geldeinheit Budget zur Verfügung hat. 3 Unternehmen minimiert seine Kosten unter der Nebenbedingung, dass es eine bestimmte Menge Output produzieren muss. λ gibt an, um wieviel die Kosten sinken, wenn eine Outputeinheit weniger produziert werden muss. 28 / 58
29 2.4 Der Lagrange-Parameter Beweis Um diese Interpretation des Lagrange-Parameters zu sehen, betrachten Sie das folgende Maximierungsproblem: unter der Nebenbedingung max z(x 1, x 2 ) x 1,x 2 g(x 1, x 2 ) = b Die Lösung dieses Problems hängt von dem Parameter b ab, wobei b die Härte /den Grad der Restriktion der Nebenbedingung anzeigt: x 1 = x 1 (b), x 2 = x 2 (b) Der Wert der Zielfunktion im Optimum sei definiert als: v (b) = z(x 1 (b), x 2 (b)) Da x 1 und x 2 von b abhängen, gilt das offensichtlich auch für v. 29 / 58
30 2.4 Der Lagrange-Parameter Zu zeigen ist nun, dass der Lagrange-Parameter die Veränderung von v (b) misst, wenn sich b marginal verändert. (Das entspricht exakt der oben genannten Definition des Lagrange-Parameters.) Hierfür leiten wir v (b) nach b ab (Kettenregel beachten): v b = z x1 x 1 b + z x2 x 2 b Um zu sehen, dass dieser Ausdruck λ entspricht, müssen wir ihn ein wenig algebraisch massieren. 30 / 58
31 2.4 Der Lagrange-Parameter Die Lagrange-Bedingungen 1. Ordnung verlangen: L 1 (x, λ ) = z x 1 λ g x 1 = 0 z x 1 = λ g x 1 L 2 (x, λ ) = z x 2 λ g x 2 = 0 z x 2 = λ g x 2 Also muss gelten: v b = λ ( g x1 x 1 b + g x ) 2 x 2 b 31 / 58
32 2.4 Der Lagrange-Parameter Zudem muss auch im neuen Optimum die Nebenbedingung mit Gleichheit erfüllt sein: g(x 1 (b), x 2 (b)) = b Wenn wir diese Gleichung nach b differenzieren (Kettenregel beachten), erhalten wir g b = g x1 x 1 b + g x2 x 2 b = 1 Einsetzen in die obige Gleichung ergibt: q.e.d. v b = λ 1 = λ 32 / 58
33 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Zur Erinnerung: Lagrange-Theorem ist nur anwendbar, falls es nur eine Nebenbedingung gibt, die im Optimum bindet die Nicht-Negativitäts-Beschränkungen im Optimum nicht binden Nun lockern wir diese Restriktionen Kuhn-Tucker-Theorem Dieses Kapitel: Nicht-Negativitäts-Beschränkungen dürfen binden Kapitel 2.7: Mehrere Nebenbedingungen, die nicht binden müssen 33 / 58
34 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Was sind eigentlich Nicht-Negativitäts-Beschränkungen (NNB)? NNB besagen, dass die optimalen Lösungen x i keine negativen Werte annehmen dürfen ( Realitätsbezug!). Das bedeutet, dass x i entweder positive Werte (innere Lösung) oder den Wert Null (Randlösung) annehmen muss: x i 0 Man sagt, dass die NNB bindet, falls x i = 0 Man sagt, dass die NNB nicht bindet, falls x i > 0 Man sagt, dass die NNB verletzt ist, falls x i < 0 34 / 58
35 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Achtung: Häufiger Denkfehler! Wir lockern in diesem Kapitel nicht die NNB, so dass die x i nun auch negative Werte annehmen dürfen. Stattdessen erlauben wir nun, dass die x i auch den Wert Null annehmen dürfen. Das Lagrange-Theorem geht implizit davon aus (und ist auch nur in diesem Fall anwendbar), dass alle x i im Optimum positive Werte annehmen. Ist ein (oder mehrere) x i jedoch optimalerweise Null, führt Lagrange nicht zum korrekten Ergebnis. In solchen Situationen muss man das Lagrange-Theorem um NNB erweitern. (Überlegen Sie: in welchen Situationen, könnte es in der Tat optimal sein, wenn (einige) x i = 0 sind?) 35 / 58
36 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Modifiziertes Maximierungsproblem Um Maximierungsprobleme, bei denen NNB zu binden drohen, lösen zu können, muss das Maximierungsproblem wie folgt ergänzt werden: unter den NB und NNB: max x 1,...,x n z(x 1,..., x n ) g(x 1,..., x n ) b Im Optimum ======= g(x 1,..., x n ) = b x i 0 i {1,..., n} Die zu maximierende Lagrange-Funktion bleibt übrigens unverändert: max L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] x 1,...,x n 36 / 58
37 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Modifiziertes Lagrange-Theorem mit NNB Um dieses Maximierungsproblem lösen zu können, kommt folgendes Theorem zur Anwendung: Theorem (2.3 Lagrange-Theorem mit NNB) Wenn der Vektor x die Funktion z(x) unter der Nebenbedingung g(x) = b und x i 0 maximiert, und wenn g i (x ) 0 für wenigstens ein i {1,..., n}, dann existiert eine reelle Zahl λ, so dass für alle i {1,..., n} L i (x, λ ) 0, x i 0, x i L i (x, λ ) = 0, und L λ (x, λ ) = 0 37 / 58
38 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Intuition dieser Modifikationen Identifizieren Sie zunächst die Unterschiede zum gewöhnlichen Lagrange-Theorem 2.1. Was könnte hinter der aufgeweichten Bedingung stehen, dass L i (x, λ ) nun auch kleiner Null sein darf? Der Schlüssel zur Intuition dieses Theorems steckt hinter der Bedingung xi L i (x, λ ) = 0, die auch Complementary Slackness (komplementärer Schlupf) genannt wird Entweder die NNB bindet nicht (xi > 0). In diesem Fall muss die Ableitung der Lagrange-Funktion nach x i gleich 0 sein (Standard-Lagrange-Fall). Oder die NNB bindet (xi = 0). Dann muss die Ableitung der Lagrange-Funktion nicht-positiv (negativ oder null) sein: Der Wert der Zielfunktion verringert sich, wenn man x i von 0 weg erhöht. 38 / 58
39 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Intuition dieser Modifikationen: Grafik L 0 x i 39 / 58
40 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Anwendung des Theorems: Vorgehensweise Man muss wieder Kandidaten für eine Lösung finden, d.h. Vektoren (x 1,..., x n, λ), die die Lagrange-Bedingungen erfüllen. Das ist jetzt allerdings deutlich aufwendiger, weil mehrere Fälle unterschieden werden müssen. Ein bisschen Nachdenken über das zugrunde liegende ökonomische Problem ermöglicht es oft zu ahnen, welche NNB binden werden und welche nicht. 40 / 58
41 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Beispiel: 2 NNB ergeben 4 Lösungskandidaten x 2 0 x 1 41 / 58
42 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Bemerkungen 1 Anwendung in der Praxis : Im Grunde genommen müsste man das Lagrange-Theorem immer mit NNB anwenden, wenn man nicht sicher ist, ob diese im Optimum binden werden oder nicht. Da das Theorem mit NNB aber deutlich aufwendiger ist, ignoriert man die NNB in der Regel zunächst und versucht eine Lösung mit dem Standard-Lagrange-Ansatz zu finden. Sollten die NNB im tatsächlichen Optimum nicht binden, hat man Glück gehabt, und der Standard-Lagrange-Ansatz führt zum richtigen Ergebnis. Sollte allerdings mindestens eine der NNB im tatsächlichen Optimum binden, wird Lagrange zu unsinnigen/widersprüchlichen Ergebnissen führen, was signalisiert, dass man eventuell ein NNB-Problem übersehen hat. 2 Theorem 2.2 über hinreichende Bedingungen für eine eindeutige, global optimale Lösung gilt weiterhin. 42 / 58
43 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Modell-Setup Ein Unternehmen habe die Produktionsfunktion f (l, k) = l + 2k, wobei l für Arbeit und k für Kapital steht. Der Preis für eine Arbeitsstunde ist p l = 4, der Preis für Kapital p k = 10. Das Unternehmen möchte einen gegebenen Output von mindestens 20 Einheiten mit minimalen Kosten produzieren. 43 / 58
44 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Optimierungsproblem Das Minimierungsproblem lautet folglich: unter der Nebenbedingung min 4l + 10k l,k l + 2k 20 Im Optimum ======= l + 2k = 20 und den Nicht-Negativitäts-Bedingungen l 0, k 0 44 / 58
45 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Abweichung von Standardform Zur Erinnerung: Das Optimierungsproblem liegt nicht in Standardform vor, weswegen wir die Lagrange-Funktion abwandeln müssen. Hier liegt Situation 3 vor (Minimierungsproblem statt Maximierungsproblem und Restriktion in -Form) Man muss die gesamte Lagrange-Funktion mit -1 multiplizieren und diese dann maximieren. Somit wird aus min{z(x) λ[g(x) b]}... x...folgende Funktion: max{ z(x) λ[b g(x)]} x Oftmals sieht man auch folgende äquivalente Schreibweise: max x { z(x) + λ[g(x) b]} 45 / 58
46 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Naiver Versuch: Standard-Lagrange-Ansatz (NNB ignorieren) Maximiere Langrange-Funktion: max{ 4l 10k + λ[2k + l 20]} l,k Bedingungen erster Ordnung: L l L k L λ = 4 + λ = 0 = λ = 0 = 20 + l + 2k = 0 Auflösen der beiden ersten Gleichungen ergibt: 4 10 = 1 2 Das ist Unsinn! Signal, dass NNB ein Problem darstellen. 46 / 58
47 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Finden des richtigen Lösungs-Kandidaten Wenn wir die NNB mit ins Boot nehmen, gibt es vier Lösungskandidaten, von denen jedoch nur einer alle Lagrange-BEO erfüllt: 1 l > 0 und k > 0 (Standard-Lagrange) 2 l = 0 und k > 0 3 l > 0 und k = 0 4 l = 0 und k = 0 Wir haben bereits gesehen, dass Kandidat 1 keine Lösung ist. Kann Kandidat 4 die korrekte Lösung sein? Nein. Wenn l = k = 0 wäre der Output ebenfalls Null. Das würde die NB verletzen (Output=20) 47 / 58
48 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Kann Kandidat 2 die korrekte Lösung sein? Unter Ausnutzung der Complementary-Slackness-Bedingung ergibt sich folgendes BEO-Gleichungssystem: L l L k L λ = 4 + λ 0 = λ = 0 = 20 + l + 2k = 0 Aus der zweiten Gleichung folgt λ = 5. Einsetzen in die erste Bedingung führt dazu, dass diese dann verletzt ist. Also kann auch Kandidat 2 keine Lösung sein. 48 / 58
49 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion So bleibt nur noch Kandidat 3 über. Unter Ausnutzung der Complementary-Slackness-Bedingung ergibt sich folgendes BEO-Gleichungssystem: L l L k L λ = 4 + λ = 0 = λ 0 = 20 + l + 2k = 0 Aus der ersten Gleichung folgt λ = 4. Das ist kompatibel mit der zweiten Bedingung: 2 0. Einsetzen von k = 0 in die dritte Bedingung ergibt l = 20. Also erfüllt der Vektor (l, k, λ ) = (20, 0, 4) die Bedingungen aus Theorem 2.3. Gleichzeitig sind die Bedingungen aus Theorem 2.2 erfüllt. Also liegt hier ein globales Optimum vor. 49 / 58
50 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Nachtrag: Ökonomische Intuition führt schneller zum Ziel Mit ein bisschen ökonomischer Intuition hätten wir dieses Ergebnis schneller finden können. Das (konstante) Grenzprodukt des Faktors Kapital ist doppelt so groß wie das (konstante) Grenzprodukt des Faktors Arbeit. Andererseits ist Kapital (konstant) 2,5 mal so teuer wie Arbeit. Also sollte die Produktion nur mit Arbeit erfolgen. 50 / 58
51 2.7 Das Kuhn-Tucker-Verfahren 2.7 Das Kuhn-Tucker-Verfahren Lagrange Lagrange mit NNB Kuhn-Tucker Nun lockern wir auch noch die zweite Restriktion des Standard-Lagrange-Theorems Mit dem sogenannten Kuhn-Tucker-Theorem können wir auch Optimierungsprobleme mit mehreren NB lösen......und auch herausfinden, welche dieser NB im Optimum binden und welche nicht. Achtung: Die NNB sind ebenfalls Bestandteil des Kuhn-Tucker-Ansatzes! 51 / 58
52 2.7 Das Kuhn-Tucker-Verfahren Beispiele für mehrere Nebenbedingungen x 2 0 x 1 52 / 58
53 2.7 Das Kuhn-Tucker-Verfahren Modifiziertes Maximierungsproblem Wir sind nun in der Lage, komplexe Maximierungsprobleme der folgenden Form zu lösen: unter den NB und NNB: max x 1,...,x n z(x 1,..., x n ) g j (x 1,..., x n ) b j j {1,..., m} x i 0 i {1,..., n} Hierbei bezeichnet j {1,..., m} die Anzahl der NB. Die zu maximierende Lagrange-Funktion erweitert sich um die zusätzlichen NB: max L(x 1,..., x n, λ 1,..., λ m ) = z(x) x 1,...,x n m [λ j [g j (x) b j ]] j=1 53 / 58
54 2.7 Das Kuhn-Tucker-Verfahren Kuhn-Tucker-Theorem Um dieses Maximierungsproblem lösen zu können, kommt folgendes Theorem zur Anwendung: Theorem (2.4 Kuhn-Tucker-Theorem) Wenn x die Funktion z(x) unter den Nebenbedingungen g j (x) b j und x i 0 maximiert, und wenn g i (x ) 0 für wenigstens ein i {1,..., n}, dann existiert ein Vektor aus reellen Zahlen λ = (λ 1,..., λ m ), so dass für alle i {1,..., n} und j {1,..., m} L i (x, λ ) 0, x i 0, x i L i (x, λ ) = 0 und L j (x, λ ) 0, λ j 0, λ j L j (x, λ ) = 0 54 / 58
55 2.7 Das Kuhn-Tucker-Verfahren Intuition dieses Theorems Identifizieren Sie zunächst die Unterschiede zum Theorem 2.3 (Lagrange mit NNB). Was könnte hinter der aufgeweichten Bedingung stehen, dass λ j nun größer oder gleich Null sein darf? Was glauben Sie, welche Restriktion implizit für das Lagrange-Theorem gegolten hat? Der Schlüssel zur Intuition dieses Theorems steckt erneut hinter der Complementary-Slackness-Bedingung für L j und ist analog zu der von L i : λ j L j (x, λ ) = 0. Entweder der Lagrangeparameter λ j ist positiv. In diesem Fall muss L j (x, λ ) = 0 sein, was mathematisch nichts anderes bedeutet, als dass die NB bindet (Standard-Lagrange-Fall): L j (x, λ ) = g j (x ) + b j = 0. Dies ergibt Sinn, da λ j die Zahlungsbereitschaft (ZB) misst, die NB zu lockern. Da die NB bindet, sollte die ZB positiv sein. Oder die NB bindet nicht (L j (x, λ ) > 0). In diesem Fall muss λ j = 0 sein. Auch das ergibt Sinn: Bindet die NB nicht, ist sie ökonomisch irrelevant und es gibt keine positive ZB, sie zu lockern. Die NB kann also (ex-post) ignoriert werden. 55 / 58
56 2.7 Das Kuhn-Tucker-Verfahren Anwendung des Theorems: Vorgehensweise Auch das Vorgehen ist analog zu Lagrange. Aber: Es gibt jetzt noch mehr Fallunterscheidungen. Insbesondere wenn es mehrere Nebenbedingungen in Ungleichheitsform gibt, wird es sehr aufwendig, alle Kandidaten für eine optimale Lösung zu bestimmen. In diesen Fällen ist eine gute ökonomische Intuition sehr wichtig, um zu ahnen, welche NB und NNB binden und welche nicht. In der Praxis wird man diejenigen Nebenbedingungen, von denen man vermutet, dass sie nicht binden, einfach ignorieren. Wenn die gefundene Lösung die weggelassenen Nebenbedingungen erfüllt, ist alles in Ordnung. Wenn nicht, muss man einen neuen Versuch starten. 56 / 58
57 2.7 Das Kuhn-Tucker-Verfahren Beispiel: 2 NNB und 2 NB ergeben 16 Lösungskandidaten Kandidat 1: x 1 > 0, x 2 > 0, λ 1 > 0, λ 2 > 0 (Lagrange) Kandidat 2: x 1 > 0, x 2 > 0, λ 1 > 0, λ 2 = 0 Kandidat 3: x 1 > 0, x 2 > 0, λ 1 = 0, λ 2 > 0 Kandidat 4: x 1 > 0, x 2 = 0, λ 1 > 0, λ 2 > 0 Kandidat 5: x 1 = 0, x 2 > 0, λ 1 > 0, λ 2 > 0 Kandidat 6: x 1 > 0, x 2 > 0, λ 1 = 0, λ 2 = 0 Kandidat 7: x 1 > 0, x 2 = 0, λ 1 > 0, λ 2 = 0 Kandidat 8: x 1 = 0, x 2 > 0, λ 1 > 0, λ 2 = 0 Kandidat 9: x 1 > 0, x 2 = 0, λ 1 = 0, λ 2 > 0 Kandidat 10: x 1 = 0, x 2 > 0, λ 1 = 0, λ 2 > 0 Kandidat 11: x 1 = 0, x 2 = 0, λ 1 > 0, λ 2 > 0 Kandidat 12: x 1 > 0, x 2 = 0, λ 1 = 0, λ 2 = 0 Kandidat 13: x 1 = 0, x 2 > 0, λ 1 = 0, λ 2 = 0 Kandidat 14: x 1 = 0, x 2 = 0, λ 1 > 0, λ 2 = 0 Kandidat 15: x 1 = 0, x 2 = 0, λ 1 = 0, λ 2 > 0 Kandidat 16: x 1 = 0, x 2 = 0, λ 1 = 0, λ 2 = 0 57 / 58
58 2.7 Das Kuhn-Tucker-Verfahren Hausaufgabe: Verortung der 16 Kandidaten in Grafik x 2 0 x 1 58 / 58
2 Maximierung mit Nebenbedingungen
VWL III 2-1 Prof. Ray Rees 2 Maximierung mit Nebenbedingungen Literatur: Hoy et.al. (2001), Chapter 13. Gravelle und Rees (1992), Chapter 2 F,G und 15 A,B. Chiang (1984), Chapter 12. Binmore (1983), Chapter
Mehrder Grenzgewinn aus dem Gemüse- und dem Getreideanbau Da immer positiv ist, kann es nicht optimal sein, Land liegen zu lassen. Also muß die Nebenbedin
eispiel: Das odenallokationsproblem 2. des auern Landwirt hat 2 Hektar Land, auf dem er Getreide oder Ein anbauen kann. Sei Gemüse x 2 x cfl Klaus Schmidt 200 VWL III (Sommer 200) 2- Prof. Dr. Klaus M.
MehrMathematische Methoden der VWL
Mathematische Methoden der VWL Kapitel 1: Maximierung ohne Nebenbedingungen Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 30 Syllabus Syllabus 1.1 Funktionen
MehrMikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1
1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
Mehr(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)
(3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,
Mehr14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert
14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrKapitel 2. Mathematik für Mikroökonomie
Kapitel Mathematik für Mikroökonomie 1 Mathematik der Optimierung Ökonomische Theorien basieren auf der Annahme, dass die Agenten versuchen, den optimalen Wert einer Funktion zu wählen. Konsumenten maximieren
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
MehrKapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
MehrKapitel 4 Nutzenmaximierung
Kapitel 4 Nutzenmaximierung Vor- und Nachbereitung: Varian, Chapters 4 und 5 (mit Appendix) Frank, Chapter 3 (mit Appendix) Übungsblatt 4 Klaus M. Schmidt, 008 4.1 Die Nutzenfunktion Indifferenzkurven
Mehr1 Einstimmung 2. 2 Die Reduktionsmethode 5. 3 Die Methode der Lagrange-Multiplikatoren 6. 4 *Ergänzungen und Verallgemeinerungen* 10
Universität Basel 9 Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden Mathematik 1 Dr. Thomas Zehrt Extremwertprobleme mit Nebenbedingung Inhaltsverzeichnis 1 Einstimmung 2 2 Die Reduktionsmethode
MehrÜbung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
MehrMathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014
Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
MehrUnivariate Analysis. Analysis und nichtlineare Modelle Sommersemester
Analysis und nichtlineare Modelle Sommersemester 9 5 Univariate Analysis C. Berechnen Sie ohne Taschenrechner(!). Runden Sie die Ergebnisse auf ganze Zahlen. (a) 7 :, (b) 795 :.. Berechnen Sie ohne Taschenrechner(!):
MehrEin Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler
Ein Buch Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler (Aber bei der Mathematik ein bisschen aufpassen!) 4 Extremstellen
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
MehrEinführung in die Volkswirtschaftslehre
Einführung in die Volkswirtschaftslehre Übung 1: Mathematische Analyseinstrumente Dipl.-Volksw. J.-E.Wesselhöft/ Dipl.-Volksw. J.Freese Bachelor Modul Volkswirtschaftliche Analyse (WS-14-V-03) HT 2009
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrExtrema von Funktionen mit Nebenbedingung
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,
MehrMikroökonomik. Das Haushaltsoptimum. Harald Wiese. Universität Leipzig. Harald Wiese (Universität Leipzig) Das Haushaltsoptimum 1 / 37
Mikroökonomik Das Haushaltsoptimum Harald Wiese Universität Leipzig Harald Wiese (Universität Leipzig) Das Haushaltsoptimum 1 / 37 Gliederung Einführung Haushaltstheorie Das Budget Präferenzen, Indi erenzkurven
MehrMathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )
Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrOptimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrMathematische Methoden der VWL Kapitel 4: Theorie der Konsumentennachfrage
Mathematische Methoden der VWL Kapitel 4: Theorie der Konsumentennachfrage Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 64 Syllabus Syllabus 4.1 Einführung
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrKlausur Mathematik, 1. Oktober 2012, A
Klausur, Mathematik, Oktober 2012, Lösungen, A 1 Klausur Mathematik, 1. Oktober 2012, A Die Klausureinsicht ist Do, 8.11.2012 um 18:00 in MZG 8.136. Die Klausur ist mit 30 Punkten bestanden. Falls Sie
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrSubstitutionsverfahren
Substitutionsverfahren 1 Motivation Wir stehen vor folgendem Problem: In unserem Betrieb kann unsere einzige Maschine Produkt A in zwei Stunden und Produkt B in einer Stunde produzieren. Die Maschine läuft
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrAufgabe des Monats Juni 2011
1 Aufgabe des Monats Juni 2011 Aufgabenteil a): Lesen Sie die Artikel, auf welche Weise der ehemalige Berliner Finanzsenator ermittelt, wie hoch das Essensbudget für einen Hartz-IV Haushalt ausfallen muss,
MehrInhaltsverzeichnis. Universität Basel 7 Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden. Mathematik 1
Universität Basel 7 Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden Mathematik 1 Dr. Thomas Zehrt Produktionsfunktionen Inhaltsverzeichnis 1 Homogene Funktionen 2 1.1 Definition und
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie
MehrWirtschaftsmathematik II
WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen
MehrAufgabensammlung zum UK Mathematische Optimierung
Aufgabensammlung zum UK Mathematische Optimierung Mehrdimensionale Analysis Stetigkeit. Man bestimme den natürlichen Definitionsbereich D f der folgenden Funktionen f: a) f(x, y) = ln(x y ) b) f(x, y)
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
MehrDie Budgetbeschränkung, die Nutzenmaximierung. 17. März 2017
Die Budgetbeschränkung, die Nutzenmaximierung 17. März 2017 Die Budgetbeschränkung, die Nutzenmaximierung Budgetbeschränkung: p x = p 1 x 1 + + p n x n y y > 0... nominales Einkommen (Einkommen in Währungseinheiten);
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
MehrKarlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik
MehrMathematische Methoden der VWL
Mathematische Methoden der VWL Kapitel 3: Komparative Statik Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 & 2018 LMU, Sommersemester 2018 1 / 76 Intuition: Grafik des Kapitels (I) 2 / 76 Syllabus
MehrMathematische Methoden der VWL
Mathematische Methoden der VWL Kapitel 3: Komparative Statik Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 76 Syllabus Syllabus 3.1 Einführung 3.2 Das Implicit-Function-Theorem
Mehr10 Extremwerte mit Nebenbedingungen
10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen
MehrWertetabelle für f(x, y) = x² + y² Konstruktion des Punktes (2 2 8)
6 Differentialrechnung bei Funktionen in mehreren Veränderlichen DEFINITION Es seien, ;..., n reelle unabhängige Variablen. Wenn jede Wertekombination ( ; ;..., n ) genau eine Zahl R zugeordnet ist, so
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
Mehr7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
MehrZusatzübungen. Berechne alle Produkte zweier oben genannten Matrizen, die möglich sind (also A B, B A, C B,..., usw., wenn möglich).
Zusatzübungen (Lösungen am Ende) Aufgabe 1: ( ) ( ) 1 1 2 3 1 3 A =, B =, C = 3 1 2 2 5 2 0 Berechne alle Produkte zweier oben genannten Matrizen, die möglich sind (also A B, B A, C B,..., usw., wenn möglich).
MehrExtrema mit Nebenbedingungen
Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst
MehrMathematik für Wirtschaftswissenschaftler
Fred Böker Mathematik für Wirtschaftswissenschaftler Das Übungsbuch 2., aktualisierte Auflage Higher Education München Harlow Amsterdam Madrid Boston San Francisco Don Mills Meico City Sydney a part of
MehrMathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript
Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrAnalysis II 14. Übungsblatt
Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau
MehrVorlesung 3: Versicherungsnachfrage
Vorlesung 3: Versicherungsnachfrage Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie, FS 12 Versicherungsnachfrage 1/20 2 / 20 3. 1 Das Versicherungsnachfrageproblem
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
MehrDualität bei konvexer Optimierung
Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche
Mehr7.11. Extrema unter Nebenbedingungen
7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes
Mehr2 Funktionen in mehreren Variablen: Differentiation
Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v
MehrDiplomvorprüfung für Volkswirte
Seminar für Versicherungswissenschaft 20. Februar 2004 Prof. Ray Rees Diplomvorprüfung für Volkswirte Methoden der Volkswirtschaftslehre (VWL III) Grundstudium Sie haben für die Bearbeitung der folgenden
MehrKurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de
MehrHöhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung
TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrMathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
MehrMehrdimensionale Differentialrechnung Übersicht
Mehrdimensionale Differentialrechnung Übersicht Partielle und Totale Differenzierbarkeit Man kann sich mehrdimensionale Funktionen am Besten für den Fall f : R 2 M R vorstellen Dann lässt sich der Graph
MehrAufgabe des Monats Mai
Aufgabe des Monats Mai 2013 1 Ein Monopolist produziere mit folgender Kostenfunktion: K(x) = x 3 12x 2 + 60x + 98 und sehe sich der Nachfragefunktion (Preis-Absatz-Funktion) p(x) = 10, 5x + 120 gegenüber.
MehrTechnologie. Michael Strub. Mikroökonomie I HS 09
Technologie Michael Strub Mikroökonomie I HS 09 Inhalt Einführung Inputs und Outputs Beschreibung technologischer Beschränkungen Beispiele für Technologien Eigenschaften der Technologie Das Grenzprodukt
Mehr2.6 Theorie des Haushalts
.6 Theorie des Haushalts WS 007/08 Nutzenfunktionen und Indifferenzkurven Nutzenfunktion: Hilfsmittel, um Präferenzen zu beschreiben Eine Präferenzordnung lässt sich unter den obigen Annahmen über eine
Mehr1 Maximierung ohne Nebenbedingungen
VWL III 1-1 Prof. Ray Rees 1 Maximierung ohne Nebenbedingungen Literatur: Schulbücher zur Mathematik ab der 10. Klasse Hoy et.al. (2001), Chapter 4-6, 11, 12. Chiang (1984), Chapter 9-11. Binmore (1983),
MehrWirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II
Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer
Mehr2.3 Kriterien der Entscheidungsfindung: Präferenzen
.3 Kriterien der Entscheidungsfindung: Präferenzen Der Einfachheit halber beschränken wir uns auf n = ( zwei Güter). Annahme: Konsumenten können für sich herausfinden, ob sie x = ( x, ) dem Güterbündel
MehrDifferenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie
Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x
Mehr118 Monotone Transformation der Zielfunktion
SoSe 16 (3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrPrüfungsklausur Mathematik II für Wirtschaftsingenieure,
HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Mathematik II für Wirtschaftsingenieure, 06.07.2015 B Name, Vorname Matr. Nr. Sem. gr. Aufgabe 1 2 3 4 5 6 7 8 gesamt erreichbare
MehrBachelorprüfung für Volkswirte. Mikroökonomie II
Seminar für Wirtschaftstheorie Prof. Thorsten Chmura Bachelorprüfung für Volkswirte Mikroökonomie II Die Klausur besteht aus drei Aufgaben auf insgesamt 16 Seiten. Alle drei Aufgaben müssen bearbeitet
MehrMATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer
Mehredingung erster Ordnung ist eine notwendige aber Die hinreichende edingung für ein Maimum keine die edingung erster Ordnung erfüllt ist, können wir We
sei eine reelle Zahl und f () eine reellwertige Funktion, Dabei die wenigstens zweimal differenzierbar ist Λ ein Maimum dieser Funktion ist, dann muß die Wenn der Funktion an Λ genau gleich 0 sein Warum?
MehrHinweise zur Mathematik
Hinweise zur Mathematik Max Albert, Henrik Egbert, Lothar Grall & Andreas Hildenbrand WS 14/15 1 Mikroökonomische Theorie II Vorlesung und Übung setzen den Stoff der Mathematikveranstaltung des ersten
Mehr18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
MehrMathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 19 8. Juli 2010 Kapitel 14. Gewöhnliche Differentialgleichungen zweiter Ordnung 14.1 Systeme gewöhnlicher linearer Differentialgleichungen erster
MehrLösung - Serie 25. D-MAVT/D-MATL Analysis II FS 2017 Dr. Andreas Steiger
D-MAVT/D-MATL Analysis II FS 2017 Dr. Andreas Steiger Lösung - Serie 25 1. Wie lautet die charakteristische Gleichung der Differentialgleichung y + 2y + y = 0? (a) λ 3 + 2λ + 1 = 0 (b) λ 3 + 2λ = 0 (c)
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrMusterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 3 Unterschrift der Kandidatin/des Kandidaten 4 TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
Mehr4 Theorie der Konsumentennachfrage
VWL III 4-1 Prof. Ray Rees 4 Theorie der Konsumentennachfrage Literatur: McKenna und Rees (1992), Chapter 7. Gravelle und Rees (1992), Chapter 4 A-C. MasColell, Whinston, Green (1995), Chapter 3. 4.1 Einführung
Mehr8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
MehrUNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe
Mehr