Mathematische Methoden der VWL

Größe: px
Ab Seite anzeigen:

Download "Mathematische Methoden der VWL"

Transkript

1 Mathematische Methoden der VWL Kapitel 2: Maximierung mit Nebenbedingungen Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/ / 58

2 Syllabus Syllabus 2.1 Das Lagrange-Verfahren 2.2 Quasi-Konkavität 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 2.4 Der Lagrange-Parameter 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion 2.7 Das Kuhn-Tucker-Verfahren 2 / 58

3 2.1 Das Lagrange-Verfahren 2.1 Das Lagrange-Verfahren Mit den mathematischen Methoden aus Kapitel 1 ist es lediglich möglich Optimierungsprobleme zu lösen, bei denen die Zielfunktion ein Maximum (oder Minimum) besitzt. Um auch Zielfunktionen behandeln zu können, die über den gesamten Definitionsbereich steigen (oder fallen), müssen wir unser Instrumentarium um Nebenbedingungen (NB) erweitern. In diesem Zusammenhang lernen wir das sogenannte Kuhn-Tucker-Theorem kennen. Vorher beschäftigen wir uns jedoch mit dem weitaus gebräuchlicheren Spezialfall des Kuhn-Tucker-Ansatzes: dem Lagrange-Theorem. 3 / 58

4 2.1 Das Lagrange-Verfahren Der Lagrange-Ansatz kann nur dann angewendet werden, wenn nur eine Nebenbedingung existiert, wenn klar ist, dass diese Nebenbedingung im Optimum binden wird und wenn klar ist, dass alle Entscheidungsvariablen x i im Optimum größer Null sein werden (man sagt auch: die Nicht-Negativitäts-Beschränkunen dürfen nicht binden, siehe Kapitel 2.5). 4 / 58

5 2.1 Das Lagrange-Verfahren Optimierungsproblem in Standardform Wir betrachten folgendes Maximierungsproblem der Form unter der Nebenbedingung max x 1,...,x n z(x 1,..., x n ) g(x 1,..., x n ) b, wobei g( ) eine Funktion ist und b ein reeller Parameter. Zudem wissen wir vorab, dass die Nebenbedingung im Optimum binden wird: g(x 1,..., x n ) = b, 5 / 58

6 2.1 Das Lagrange-Verfahren Die Lagrange-Funktion (im Standardform-Fall) Die Lagrange-Funktion wird wiefolgt gebildet: L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] Die Lagrange-Funktion ist also einfach die ursprüngliche Zielfunktion abzüglich eines Produkts. Dieses Produkt setzt sich zusammen aus dem sogenannten Lagrange-Parameter λ und der Nebenbedingung, die so aufgelöst wurde, dass alle Terme auf der linken Seite stehen und zusammen gleich 0 sind. Um das Maximierungsproblem zu lösen, wird nun die Lagrange-Funktion maximiert: max L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] x 1,...,x n 6 / 58

7 2.1 Das Lagrange-Verfahren Nicht standardförmige Optimierungsprobleme Bei Optimierungsproblemen, die sich nicht in der Standardform befinden, muss man die Lagrange-Funktion etwas anpassen: Situation 1: Minimierungsproblem statt Maximierungsproblem Die zu maximierende Lagrange-Funktion wird zu: max x 1,...,x n L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] Situation 2: Nebenbedingung der Form g(x 1,..., x n ) b Die zu maximierende Lagrange-Funktion wird zu: max L(x 1,..., x n, λ) = z(x 1,..., x n ) + λ [g(x 1,..., x n ) b] x 1,...,x n Situation 3: Situation 1 + Situation 2 Die zu maximierende Lagrange-Funktion wird zu: max L(x 1,..., x n, λ) = z(x 1,..., x n ) + λ [g(x 1,..., x n ) b] x 1,...,x n 7 / 58

8 2.1 Das Lagrange-Verfahren Das Lagrange-Theorem Zur Vereinfachung der Notation sei x = (x 1,..., x n ). Außerdem bezeichnen wir mit f i die partielle Ableitung einer beliebigen Funktion f (x) nach x i. Theorem (2.1 Lagrange-Theorem) Wenn der Vektor x die Funktion z(x) unter der Nebenbedingung g(x) = b maximiert, und wenn g i (x ) 0 für wenigstens ein i {1,..., n}, dann existiert eine reelle Zahl λ, so dass L i (x, λ ) = 0 i {1,..., n} und L λ (x, λ ) = 0. 8 / 58

9 2.1 Das Lagrange-Verfahren Notwendige Bedingungen für ein Maximum Das Theorem von Lagrange besagt nur, dass die Bedingungen an die ersten Ableitungen der Lagrange-Funktion notwendige Bedingungen für eine Lösung des Maximierungsproblems sind, d.h., jede Lösung muss diese Bedingungen erfüllen. Die Lagrange-Bedingungen werden auch Bedingungen erster Ordnung genannt. Es gibt (n+1) solcher Bedingungen mit (n+1) Unbekannten, nämlich den Werten x 1,..., x n und λ. Wenn dieses Gleichungssystem eine Lösung hat, dann erhält man einen (eventuell auch mehrere) Kandidaten für die Lösung des Maximierungsproblems. Bei diesem Kandidaten kann es sich jedoch auch um ein Minimum oder um ein lokales (statt einem globalen) Maximum handeln. Darum ist das folgende Theorem sehr nützlich. 9 / 58

10 2.1 Das Lagrange-Verfahren Hinreichende Bedingungen für ein Maximum Theorem (2.2 Hinreichende Bedingungen für ein Maximum) Die Lagrange-Bedingungen sind nicht nur notwendig, sondern auch hinreichend für ein eindeutiges Maximum, wenn die Menge, über die maximiert wird, konvex ist und die Zielfunktion z(x) global streng quasikonkav ist. Bei vielen einfachen Optimierungsproblemen ist die Menge, über die maximiert wird, eine Gerade. Eine Gerade ist immer eine konvexe Menge. In diesem Fall gibt es also kein Problem. Bei komplizierteren Optimierungsproblemen muss man überprüfen, ob die NB eine konvexe Menge einschließen. Es bleibt zu klären, wann eine Funktion streng quasikonkav ist. 10 / 58

11 2.2 Quasikonkave Funktionen 2.2 Quasikonkave Funktionen Wir wissen bereits aus Kapitel 1, dass die Bedingungen erster Ordnung die optimale Lösung eindeutig charakterisieren, wenn die Zielfunktion streng konkav ist. Die Forderung nach strenger Konkavität ist jedoch in diesem Fall etwas zu stark. Es genügt, dass die Funktion streng quasikonkav ist. Um sich den subtilen Unterschied zwischen Konkavität und Quasikonkavität klar zu machen, vergleichen wir die jeweiligen Definitionen miteinander. 11 / 58

12 2.2 Quasikonkave Funktionen Definition (1.1 Konkavität) Eine Funktion z(x) : R N R ist (streng) konkav, genau dann wenn für alle k (0, 1) und alle x, x R N gilt: z(kx + (1 k)x ) (>) kz(x ) + (1 k)z(x ) Definition (2.1 Quasikonkavität) Eine Funktion z(x) : R N R ist (streng) quasikonkav genau dann, wenn für alle k (0, 1) und alle x, x R N gilt: z(x ) z(x ) z(kx + (1 k)x ) (>) z(x ) 12 / 58

13 2.2 Quasikonkave Funktionen Eine streng konkave Funktion z(x) 0 x 13 / 58

14 2.2 Quasikonkave Funktionen Eine streng quasikonkave Funktion z(x) 0 x 14 / 58

15 2.2 Quasikonkave Funktionen Es gibt drei Gründe, weswegen Theorem 2.2 vom im Vergleich zur Konkavität schwächeren Konzept der Quasikonkavität ausgeht: 1 Quasikonkavität ist das allgemeinere Konzept von beiden. Das strengere Konkavitäts-Konzept würde viele Funktionen nicht erfassen, für die das Lagrange-Theorem jedoch eine hinreichende Bedingung darstellen würde. Jede konkave Funktion ist auch quasikonkav. Aber nicht jede quasikonkave Funktion ist auch konkav. Beispiel: Glockenkurve ist quasikonkav aber nicht konkav. 2 Die Eigenschaft der Quasikonkavität bleibt bei einer monotonen Transformation der Funktion erhalten (Nutzenfunktionen!). Das gilt nicht für die Eigenschaft der Konkavität. 3 Die oberen Konturmengen (auch Höhenlinien genannt, z.b. Indifferenzkurven, Isogewinnlinien) einer quasikonkaven Funktion sind stets konvex. 15 / 58

16 2.2 Quasikonkave Funktionen Interpretation Hinter der Tatsache, dass jede quasikonkave Funktion konvexe Konturmengen hat, verbirgt sich die Intuition von Theorem 2.2. Wenn sowohl die Menge, über die maximiert wird, als auch die Konturmengen der Zielfunktion konvex sind, wird es nur einen Punkt geben, (nämlich das Optimum), an dem sich die beiden Mengen berühren werden. Aus diesem Grund handelt es sich bei den Lagrange-BEO um hinreichende Bedingungen, wenn die Zielfunktion quasikonkav ist und über eine konvexe Menge maximiert wird. 16 / 58

17 2.2 Quasikonkave Funktionen Exkurs: Konvexe und nichtkonvexe Mengen x 2 0 x 1 17 / 58

18 2.2 Quasikonkave Funktionen Beispiel für nicht-konvexe Nebenbedingungsmenge x 2 0 x 1 18 / 58

19 2.2 Quasikonkave Funktionen Beispiel für nicht-quasikonkave Zielfunktion x 2 0 x 1 19 / 58

20 2.2 Quasikonkave Funktionen Beispiel für konvexe NB-Menge und quasikonkave Zielfunktion x 2 0 x 1 20 / 58

21 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Modell-Setup Ein Landwirt hat 12 Hektar Land, auf dem er Getreide oder Gemüse anbauen kann. Sei: x 1 Hektar Land für Getreideproduktion x 2 Hektar Land für Gemüseproduktion G 1 (x 1 ) G 2 (x 2 ) Gewinn aus Getreideproduktion, G 1 (x 1 ) = 8x 1 Gewinn aus Gemüseproduktion, G 2 (x 2 ) = 32 x 2 21 / 58

22 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Optimierungsproblem Sein Gewinnmaximierungsproblem lautet folglich: unter der Nebenbedingung max x 1,x 2 8x x 2 x 1 + x Da der Grenzgewinn aus dem Gemüse- und dem Getreideanbau immer positiv ist, kann es nicht optimal sein, Land brach liegen zu lassen. Also muss im Optimum die Nebenbedingung mit Gleichheit erfüllt sein. 22 / 58

23 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Das Lagrange-Verfahren 1 Aufstellen der Lagrange-Funktion: L(x 1, x 2, λ) = 8x x 2 λ(x 1 + x 2 12) 2 Partielle Ableitungen bilden und gleich 0 setzen: L x 1 = 8 λ = 0 L x 2 = 16 1 λ = 0 x2 L λ = x 1 x = 0 23 / 58

24 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 3 Auflösen dieses Gleichungssystems nach den drei Unbekannten x 1, x 2 und λ: λ = 8 Interpretation x 2 = 4 x 1 = 8 Der Landwirt wird den Gemüseanbau solange ausdehnen, bis der Grenzertrag einer Einheit Land beim Gemüseanbau genau so groß ist wie der Grenzertrag einer Einheit Land beim Getreideanbau. Zeigen Sie rechnerisch, dass diese Aussage stimmt. 24 / 58

25 2.3 Beispiel: Das Bodenallokationsproblem des Bauern 25 / 58

26 2.3 Beispiel: Das Bodenallokationsproblem des Bauern Man kann das auch sofort an den beiden ersten Lagrange-Bedingungen erkennen, wenn man dort jeweils λ auf die rechte Seite bringt und dann beide Gleichungen durcheinander dividiert: 8 16 = G 1 (x 1) x2 G 2 (x 2) = λ λ = 1 Übrigens: Der Lagrange-Parameter λ ist genau so groß wie der Grenzgewinn aus einem zusätzlichen Hektar Land (egal ob in der Getreide- oder Gemüseverwendung). Da dies kein Zufall ist, widmen wir dem Lagrange-Parameter das nächste Unterkapitel. 26 / 58

27 2.4 Der Lagrange-Parameter 2.4 Der Lagrange-Parameter Lagrange-Parameter sind nicht nur ein sehr nützliches mathematisches Hilfsmittel, sie haben auch eine wichtige ökonomische Interpretation: Der Lagrange-Parameter gibt an, um welchen Betrag sich der Wert der Zielfunktion im Optimum ändert, wenn die Nebenbedingung um eine marginale Einheit gelockert wird. Somit gibt der Lagrange-Parameter auch die maximale Zahlungsbereitschaft für eine marginale Ausweitung der Nebenbedingung an. Der letztgenannten Interpretation verdankt der Lagrange-Parameter im Übrigen seinen Namen: Schattenpreis (einer Lockerung der Nebenbedingung). 27 / 58

28 2.4 Der Lagrange-Parameter Beispiele 1 Landwirt maximiert seinen Gewinn unter einer Bodenbeschränkung. λ gibt an, um wieviel der Gewinn des Landwirtes steigen würde, wenn er eine zusätzliche Einheit Boden zur Verfügung hätte. 2 Konsument maximiert seinen Nutzen unter einer Budgetbeschränkung. λ gibt an, um wieviel der Nutzen des Konsumenten steigt, wenn er eine zusätzliche Geldeinheit Budget zur Verfügung hat. 3 Unternehmen minimiert seine Kosten unter der Nebenbedingung, dass es eine bestimmte Menge Output produzieren muss. λ gibt an, um wieviel die Kosten sinken, wenn eine Outputeinheit weniger produziert werden muss. 28 / 58

29 2.4 Der Lagrange-Parameter Beweis Um diese Interpretation des Lagrange-Parameters zu sehen, betrachten Sie das folgende Maximierungsproblem: unter der Nebenbedingung max z(x 1, x 2 ) x 1,x 2 g(x 1, x 2 ) = b Die Lösung dieses Problems hängt von dem Parameter b ab, wobei b die Härte /den Grad der Restriktion der Nebenbedingung anzeigt: x 1 = x 1 (b), x 2 = x 2 (b) Der Wert der Zielfunktion im Optimum sei definiert als: v (b) = z(x 1 (b), x 2 (b)) Da x 1 und x 2 von b abhängen, gilt das offensichtlich auch für v. 29 / 58

30 2.4 Der Lagrange-Parameter Zu zeigen ist nun, dass der Lagrange-Parameter die Veränderung von v (b) misst, wenn sich b marginal verändert. (Das entspricht exakt der oben genannten Definition des Lagrange-Parameters.) Hierfür leiten wir v (b) nach b ab (Kettenregel beachten): v b = z x1 x 1 b + z x2 x 2 b Um zu sehen, dass dieser Ausdruck λ entspricht, müssen wir ihn ein wenig algebraisch massieren. 30 / 58

31 2.4 Der Lagrange-Parameter Die Lagrange-Bedingungen 1. Ordnung verlangen: L 1 (x, λ ) = z x 1 λ g x 1 = 0 z x 1 = λ g x 1 L 2 (x, λ ) = z x 2 λ g x 2 = 0 z x 2 = λ g x 2 Also muss gelten: v b = λ ( g x1 x 1 b + g x ) 2 x 2 b 31 / 58

32 2.4 Der Lagrange-Parameter Zudem muss auch im neuen Optimum die Nebenbedingung mit Gleichheit erfüllt sein: g(x 1 (b), x 2 (b)) = b Wenn wir diese Gleichung nach b differenzieren (Kettenregel beachten), erhalten wir g b = g x1 x 1 b + g x2 x 2 b = 1 Einsetzen in die obige Gleichung ergibt: q.e.d. v b = λ 1 = λ 32 / 58

33 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Zur Erinnerung: Lagrange-Theorem ist nur anwendbar, falls es nur eine Nebenbedingung gibt, die im Optimum bindet die Nicht-Negativitäts-Beschränkungen im Optimum nicht binden Nun lockern wir diese Restriktionen Kuhn-Tucker-Theorem Dieses Kapitel: Nicht-Negativitäts-Beschränkungen dürfen binden Kapitel 2.7: Mehrere Nebenbedingungen, die nicht binden müssen 33 / 58

34 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Was sind eigentlich Nicht-Negativitäts-Beschränkungen (NNB)? NNB besagen, dass die optimalen Lösungen x i keine negativen Werte annehmen dürfen ( Realitätsbezug!). Das bedeutet, dass x i entweder positive Werte (innere Lösung) oder den Wert Null (Randlösung) annehmen muss: x i 0 Man sagt, dass die NNB bindet, falls x i = 0 Man sagt, dass die NNB nicht bindet, falls x i > 0 Man sagt, dass die NNB verletzt ist, falls x i < 0 34 / 58

35 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Achtung: Häufiger Denkfehler! Wir lockern in diesem Kapitel nicht die NNB, so dass die x i nun auch negative Werte annehmen dürfen. Stattdessen erlauben wir nun, dass die x i auch den Wert Null annehmen dürfen. Das Lagrange-Theorem geht implizit davon aus (und ist auch nur in diesem Fall anwendbar), dass alle x i im Optimum positive Werte annehmen. Ist ein (oder mehrere) x i jedoch optimalerweise Null, führt Lagrange nicht zum korrekten Ergebnis. In solchen Situationen muss man das Lagrange-Theorem um NNB erweitern. (Überlegen Sie: in welchen Situationen, könnte es in der Tat optimal sein, wenn (einige) x i = 0 sind?) 35 / 58

36 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Modifiziertes Maximierungsproblem Um Maximierungsprobleme, bei denen NNB zu binden drohen, lösen zu können, muss das Maximierungsproblem wie folgt ergänzt werden: unter den NB und NNB: max x 1,...,x n z(x 1,..., x n ) g(x 1,..., x n ) b Im Optimum ======= g(x 1,..., x n ) = b x i 0 i {1,..., n} Die zu maximierende Lagrange-Funktion bleibt übrigens unverändert: max L(x 1,..., x n, λ) = z(x 1,..., x n ) λ [g(x 1,..., x n ) b] x 1,...,x n 36 / 58

37 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Modifiziertes Lagrange-Theorem mit NNB Um dieses Maximierungsproblem lösen zu können, kommt folgendes Theorem zur Anwendung: Theorem (2.3 Lagrange-Theorem mit NNB) Wenn der Vektor x die Funktion z(x) unter der Nebenbedingung g(x) = b und x i 0 maximiert, und wenn g i (x ) 0 für wenigstens ein i {1,..., n}, dann existiert eine reelle Zahl λ, so dass für alle i {1,..., n} L i (x, λ ) 0, x i 0, x i L i (x, λ ) = 0, und L λ (x, λ ) = 0 37 / 58

38 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Intuition dieser Modifikationen Identifizieren Sie zunächst die Unterschiede zum gewöhnlichen Lagrange-Theorem 2.1. Was könnte hinter der aufgeweichten Bedingung stehen, dass L i (x, λ ) nun auch kleiner Null sein darf? Der Schlüssel zur Intuition dieses Theorems steckt hinter der Bedingung xi L i (x, λ ) = 0, die auch Complementary Slackness (komplementärer Schlupf) genannt wird Entweder die NNB bindet nicht (xi > 0). In diesem Fall muss die Ableitung der Lagrange-Funktion nach x i gleich 0 sein (Standard-Lagrange-Fall). Oder die NNB bindet (xi = 0). Dann muss die Ableitung der Lagrange-Funktion nicht-positiv (negativ oder null) sein: Der Wert der Zielfunktion verringert sich, wenn man x i von 0 weg erhöht. 38 / 58

39 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Intuition dieser Modifikationen: Grafik L 0 x i 39 / 58

40 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Anwendung des Theorems: Vorgehensweise Man muss wieder Kandidaten für eine Lösung finden, d.h. Vektoren (x 1,..., x n, λ), die die Lagrange-Bedingungen erfüllen. Das ist jetzt allerdings deutlich aufwendiger, weil mehrere Fälle unterschieden werden müssen. Ein bisschen Nachdenken über das zugrunde liegende ökonomische Problem ermöglicht es oft zu ahnen, welche NNB binden werden und welche nicht. 40 / 58

41 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Beispiel: 2 NNB ergeben 4 Lösungskandidaten x 2 0 x 1 41 / 58

42 2.5 Lagrange mit Nicht-Negativitäts-Beschränkungen Bemerkungen 1 Anwendung in der Praxis : Im Grunde genommen müsste man das Lagrange-Theorem immer mit NNB anwenden, wenn man nicht sicher ist, ob diese im Optimum binden werden oder nicht. Da das Theorem mit NNB aber deutlich aufwendiger ist, ignoriert man die NNB in der Regel zunächst und versucht eine Lösung mit dem Standard-Lagrange-Ansatz zu finden. Sollten die NNB im tatsächlichen Optimum nicht binden, hat man Glück gehabt, und der Standard-Lagrange-Ansatz führt zum richtigen Ergebnis. Sollte allerdings mindestens eine der NNB im tatsächlichen Optimum binden, wird Lagrange zu unsinnigen/widersprüchlichen Ergebnissen führen, was signalisiert, dass man eventuell ein NNB-Problem übersehen hat. 2 Theorem 2.2 über hinreichende Bedingungen für eine eindeutige, global optimale Lösung gilt weiterhin. 42 / 58

43 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Modell-Setup Ein Unternehmen habe die Produktionsfunktion f (l, k) = l + 2k, wobei l für Arbeit und k für Kapital steht. Der Preis für eine Arbeitsstunde ist p l = 4, der Preis für Kapital p k = 10. Das Unternehmen möchte einen gegebenen Output von mindestens 20 Einheiten mit minimalen Kosten produzieren. 43 / 58

44 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Optimierungsproblem Das Minimierungsproblem lautet folglich: unter der Nebenbedingung min 4l + 10k l,k l + 2k 20 Im Optimum ======= l + 2k = 20 und den Nicht-Negativitäts-Bedingungen l 0, k 0 44 / 58

45 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Abweichung von Standardform Zur Erinnerung: Das Optimierungsproblem liegt nicht in Standardform vor, weswegen wir die Lagrange-Funktion abwandeln müssen. Hier liegt Situation 3 vor (Minimierungsproblem statt Maximierungsproblem und Restriktion in -Form) Man muss die gesamte Lagrange-Funktion mit -1 multiplizieren und diese dann maximieren. Somit wird aus min{z(x) λ[g(x) b]}... x...folgende Funktion: max{ z(x) λ[b g(x)]} x Oftmals sieht man auch folgende äquivalente Schreibweise: max x { z(x) + λ[g(x) b]} 45 / 58

46 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Naiver Versuch: Standard-Lagrange-Ansatz (NNB ignorieren) Maximiere Langrange-Funktion: max{ 4l 10k + λ[2k + l 20]} l,k Bedingungen erster Ordnung: L l L k L λ = 4 + λ = 0 = λ = 0 = 20 + l + 2k = 0 Auflösen der beiden ersten Gleichungen ergibt: 4 10 = 1 2 Das ist Unsinn! Signal, dass NNB ein Problem darstellen. 46 / 58

47 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Finden des richtigen Lösungs-Kandidaten Wenn wir die NNB mit ins Boot nehmen, gibt es vier Lösungskandidaten, von denen jedoch nur einer alle Lagrange-BEO erfüllt: 1 l > 0 und k > 0 (Standard-Lagrange) 2 l = 0 und k > 0 3 l > 0 und k = 0 4 l = 0 und k = 0 Wir haben bereits gesehen, dass Kandidat 1 keine Lösung ist. Kann Kandidat 4 die korrekte Lösung sein? Nein. Wenn l = k = 0 wäre der Output ebenfalls Null. Das würde die NB verletzen (Output=20) 47 / 58

48 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Kann Kandidat 2 die korrekte Lösung sein? Unter Ausnutzung der Complementary-Slackness-Bedingung ergibt sich folgendes BEO-Gleichungssystem: L l L k L λ = 4 + λ 0 = λ = 0 = 20 + l + 2k = 0 Aus der zweiten Gleichung folgt λ = 5. Einsetzen in die erste Bedingung führt dazu, dass diese dann verletzt ist. Also kann auch Kandidat 2 keine Lösung sein. 48 / 58

49 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion So bleibt nur noch Kandidat 3 über. Unter Ausnutzung der Complementary-Slackness-Bedingung ergibt sich folgendes BEO-Gleichungssystem: L l L k L λ = 4 + λ = 0 = λ 0 = 20 + l + 2k = 0 Aus der ersten Gleichung folgt λ = 4. Das ist kompatibel mit der zweiten Bedingung: 2 0. Einsetzen von k = 0 in die dritte Bedingung ergibt l = 20. Also erfüllt der Vektor (l, k, λ ) = (20, 0, 4) die Bedingungen aus Theorem 2.3. Gleichzeitig sind die Bedingungen aus Theorem 2.2 erfüllt. Also liegt hier ein globales Optimum vor. 49 / 58

50 2.6 Beispiel: Kostenminimierung bei substitutionaler Produktionsfunktion Nachtrag: Ökonomische Intuition führt schneller zum Ziel Mit ein bisschen ökonomischer Intuition hätten wir dieses Ergebnis schneller finden können. Das (konstante) Grenzprodukt des Faktors Kapital ist doppelt so groß wie das (konstante) Grenzprodukt des Faktors Arbeit. Andererseits ist Kapital (konstant) 2,5 mal so teuer wie Arbeit. Also sollte die Produktion nur mit Arbeit erfolgen. 50 / 58

51 2.7 Das Kuhn-Tucker-Verfahren 2.7 Das Kuhn-Tucker-Verfahren Lagrange Lagrange mit NNB Kuhn-Tucker Nun lockern wir auch noch die zweite Restriktion des Standard-Lagrange-Theorems Mit dem sogenannten Kuhn-Tucker-Theorem können wir auch Optimierungsprobleme mit mehreren NB lösen......und auch herausfinden, welche dieser NB im Optimum binden und welche nicht. Achtung: Die NNB sind ebenfalls Bestandteil des Kuhn-Tucker-Ansatzes! 51 / 58

52 2.7 Das Kuhn-Tucker-Verfahren Beispiele für mehrere Nebenbedingungen x 2 0 x 1 52 / 58

53 2.7 Das Kuhn-Tucker-Verfahren Modifiziertes Maximierungsproblem Wir sind nun in der Lage, komplexe Maximierungsprobleme der folgenden Form zu lösen: unter den NB und NNB: max x 1,...,x n z(x 1,..., x n ) g j (x 1,..., x n ) b j j {1,..., m} x i 0 i {1,..., n} Hierbei bezeichnet j {1,..., m} die Anzahl der NB. Die zu maximierende Lagrange-Funktion erweitert sich um die zusätzlichen NB: max L(x 1,..., x n, λ 1,..., λ m ) = z(x) x 1,...,x n m [λ j [g j (x) b j ]] j=1 53 / 58

54 2.7 Das Kuhn-Tucker-Verfahren Kuhn-Tucker-Theorem Um dieses Maximierungsproblem lösen zu können, kommt folgendes Theorem zur Anwendung: Theorem (2.4 Kuhn-Tucker-Theorem) Wenn x die Funktion z(x) unter den Nebenbedingungen g j (x) b j und x i 0 maximiert, und wenn g i (x ) 0 für wenigstens ein i {1,..., n}, dann existiert ein Vektor aus reellen Zahlen λ = (λ 1,..., λ m ), so dass für alle i {1,..., n} und j {1,..., m} L i (x, λ ) 0, x i 0, x i L i (x, λ ) = 0 und L j (x, λ ) 0, λ j 0, λ j L j (x, λ ) = 0 54 / 58

55 2.7 Das Kuhn-Tucker-Verfahren Intuition dieses Theorems Identifizieren Sie zunächst die Unterschiede zum Theorem 2.3 (Lagrange mit NNB). Was könnte hinter der aufgeweichten Bedingung stehen, dass λ j nun größer oder gleich Null sein darf? Was glauben Sie, welche Restriktion implizit für das Lagrange-Theorem gegolten hat? Der Schlüssel zur Intuition dieses Theorems steckt erneut hinter der Complementary-Slackness-Bedingung für L j und ist analog zu der von L i : λ j L j (x, λ ) = 0. Entweder der Lagrangeparameter λ j ist positiv. In diesem Fall muss L j (x, λ ) = 0 sein, was mathematisch nichts anderes bedeutet, als dass die NB bindet (Standard-Lagrange-Fall): L j (x, λ ) = g j (x ) + b j = 0. Dies ergibt Sinn, da λ j die Zahlungsbereitschaft (ZB) misst, die NB zu lockern. Da die NB bindet, sollte die ZB positiv sein. Oder die NB bindet nicht (L j (x, λ ) > 0). In diesem Fall muss λ j = 0 sein. Auch das ergibt Sinn: Bindet die NB nicht, ist sie ökonomisch irrelevant und es gibt keine positive ZB, sie zu lockern. Die NB kann also (ex-post) ignoriert werden. 55 / 58

56 2.7 Das Kuhn-Tucker-Verfahren Anwendung des Theorems: Vorgehensweise Auch das Vorgehen ist analog zu Lagrange. Aber: Es gibt jetzt noch mehr Fallunterscheidungen. Insbesondere wenn es mehrere Nebenbedingungen in Ungleichheitsform gibt, wird es sehr aufwendig, alle Kandidaten für eine optimale Lösung zu bestimmen. In diesen Fällen ist eine gute ökonomische Intuition sehr wichtig, um zu ahnen, welche NB und NNB binden und welche nicht. In der Praxis wird man diejenigen Nebenbedingungen, von denen man vermutet, dass sie nicht binden, einfach ignorieren. Wenn die gefundene Lösung die weggelassenen Nebenbedingungen erfüllt, ist alles in Ordnung. Wenn nicht, muss man einen neuen Versuch starten. 56 / 58

57 2.7 Das Kuhn-Tucker-Verfahren Beispiel: 2 NNB und 2 NB ergeben 16 Lösungskandidaten Kandidat 1: x 1 > 0, x 2 > 0, λ 1 > 0, λ 2 > 0 (Lagrange) Kandidat 2: x 1 > 0, x 2 > 0, λ 1 > 0, λ 2 = 0 Kandidat 3: x 1 > 0, x 2 > 0, λ 1 = 0, λ 2 > 0 Kandidat 4: x 1 > 0, x 2 = 0, λ 1 > 0, λ 2 > 0 Kandidat 5: x 1 = 0, x 2 > 0, λ 1 > 0, λ 2 > 0 Kandidat 6: x 1 > 0, x 2 > 0, λ 1 = 0, λ 2 = 0 Kandidat 7: x 1 > 0, x 2 = 0, λ 1 > 0, λ 2 = 0 Kandidat 8: x 1 = 0, x 2 > 0, λ 1 > 0, λ 2 = 0 Kandidat 9: x 1 > 0, x 2 = 0, λ 1 = 0, λ 2 > 0 Kandidat 10: x 1 = 0, x 2 > 0, λ 1 = 0, λ 2 > 0 Kandidat 11: x 1 = 0, x 2 = 0, λ 1 > 0, λ 2 > 0 Kandidat 12: x 1 > 0, x 2 = 0, λ 1 = 0, λ 2 = 0 Kandidat 13: x 1 = 0, x 2 > 0, λ 1 = 0, λ 2 = 0 Kandidat 14: x 1 = 0, x 2 = 0, λ 1 > 0, λ 2 = 0 Kandidat 15: x 1 = 0, x 2 = 0, λ 1 = 0, λ 2 > 0 Kandidat 16: x 1 = 0, x 2 = 0, λ 1 = 0, λ 2 = 0 57 / 58

58 2.7 Das Kuhn-Tucker-Verfahren Hausaufgabe: Verortung der 16 Kandidaten in Grafik x 2 0 x 1 58 / 58

2 Maximierung mit Nebenbedingungen

2 Maximierung mit Nebenbedingungen VWL III 2-1 Prof. Ray Rees 2 Maximierung mit Nebenbedingungen Literatur: Hoy et.al. (2001), Chapter 13. Gravelle und Rees (1992), Chapter 2 F,G und 15 A,B. Chiang (1984), Chapter 12. Binmore (1983), Chapter

Mehr

der Grenzgewinn aus dem Gemüse- und dem Getreideanbau Da immer positiv ist, kann es nicht optimal sein, Land liegen zu lassen. Also muß die Nebenbedin

der Grenzgewinn aus dem Gemüse- und dem Getreideanbau Da immer positiv ist, kann es nicht optimal sein, Land liegen zu lassen. Also muß die Nebenbedin eispiel: Das odenallokationsproblem 2. des auern Landwirt hat 2 Hektar Land, auf dem er Getreide oder Ein anbauen kann. Sei Gemüse x 2 x cfl Klaus Schmidt 200 VWL III (Sommer 200) 2- Prof. Dr. Klaus M.

Mehr

Mathematische Methoden der VWL

Mathematische Methoden der VWL Mathematische Methoden der VWL Kapitel 1: Maximierung ohne Nebenbedingungen Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 30 Syllabus Syllabus 1.1 Funktionen

Mehr

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1 1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung) (3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,

Mehr

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert 14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Kapitel 2. Mathematik für Mikroökonomie

Kapitel 2. Mathematik für Mikroökonomie Kapitel Mathematik für Mikroökonomie 1 Mathematik der Optimierung Ökonomische Theorien basieren auf der Annahme, dass die Agenten versuchen, den optimalen Wert einer Funktion zu wählen. Konsumenten maximieren

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Kapitel 4 Nutzenmaximierung

Kapitel 4 Nutzenmaximierung Kapitel 4 Nutzenmaximierung Vor- und Nachbereitung: Varian, Chapters 4 und 5 (mit Appendix) Frank, Chapter 3 (mit Appendix) Übungsblatt 4 Klaus M. Schmidt, 008 4.1 Die Nutzenfunktion Indifferenzkurven

Mehr

1 Einstimmung 2. 2 Die Reduktionsmethode 5. 3 Die Methode der Lagrange-Multiplikatoren 6. 4 *Ergänzungen und Verallgemeinerungen* 10

1 Einstimmung 2. 2 Die Reduktionsmethode 5. 3 Die Methode der Lagrange-Multiplikatoren 6. 4 *Ergänzungen und Verallgemeinerungen* 10 Universität Basel 9 Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden Mathematik 1 Dr. Thomas Zehrt Extremwertprobleme mit Nebenbedingung Inhaltsverzeichnis 1 Einstimmung 2 2 Die Reduktionsmethode

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014 Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Univariate Analysis. Analysis und nichtlineare Modelle Sommersemester

Univariate Analysis. Analysis und nichtlineare Modelle Sommersemester Analysis und nichtlineare Modelle Sommersemester 9 5 Univariate Analysis C. Berechnen Sie ohne Taschenrechner(!). Runden Sie die Ergebnisse auf ganze Zahlen. (a) 7 :, (b) 795 :.. Berechnen Sie ohne Taschenrechner(!):

Mehr

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler Ein Buch Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler (Aber bei der Mathematik ein bisschen aufpassen!) 4 Extremstellen

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Einführung in die Volkswirtschaftslehre

Einführung in die Volkswirtschaftslehre Einführung in die Volkswirtschaftslehre Übung 1: Mathematische Analyseinstrumente Dipl.-Volksw. J.-E.Wesselhöft/ Dipl.-Volksw. J.Freese Bachelor Modul Volkswirtschaftliche Analyse (WS-14-V-03) HT 2009

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Extrema von Funktionen mit Nebenbedingung

Extrema von Funktionen mit Nebenbedingung Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Mikroökonomik. Das Haushaltsoptimum. Harald Wiese. Universität Leipzig. Harald Wiese (Universität Leipzig) Das Haushaltsoptimum 1 / 37

Mikroökonomik. Das Haushaltsoptimum. Harald Wiese. Universität Leipzig. Harald Wiese (Universität Leipzig) Das Haushaltsoptimum 1 / 37 Mikroökonomik Das Haushaltsoptimum Harald Wiese Universität Leipzig Harald Wiese (Universität Leipzig) Das Haushaltsoptimum 1 / 37 Gliederung Einführung Haushaltstheorie Das Budget Präferenzen, Indi erenzkurven

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Mathematische Methoden der VWL Kapitel 4: Theorie der Konsumentennachfrage

Mathematische Methoden der VWL Kapitel 4: Theorie der Konsumentennachfrage Mathematische Methoden der VWL Kapitel 4: Theorie der Konsumentennachfrage Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 64 Syllabus Syllabus 4.1 Einführung

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Klausur Mathematik, 1. Oktober 2012, A

Klausur Mathematik, 1. Oktober 2012, A Klausur, Mathematik, Oktober 2012, Lösungen, A 1 Klausur Mathematik, 1. Oktober 2012, A Die Klausureinsicht ist Do, 8.11.2012 um 18:00 in MZG 8.136. Die Klausur ist mit 30 Punkten bestanden. Falls Sie

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Substitutionsverfahren

Substitutionsverfahren Substitutionsverfahren 1 Motivation Wir stehen vor folgendem Problem: In unserem Betrieb kann unsere einzige Maschine Produkt A in zwei Stunden und Produkt B in einer Stunde produzieren. Die Maschine läuft

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Aufgabe des Monats Juni 2011

Aufgabe des Monats Juni 2011 1 Aufgabe des Monats Juni 2011 Aufgabenteil a): Lesen Sie die Artikel, auf welche Weise der ehemalige Berliner Finanzsenator ermittelt, wie hoch das Essensbudget für einen Hartz-IV Haushalt ausfallen muss,

Mehr

Inhaltsverzeichnis. Universität Basel 7 Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden. Mathematik 1

Inhaltsverzeichnis. Universität Basel 7 Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden. Mathematik 1 Universität Basel 7 Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden Mathematik 1 Dr. Thomas Zehrt Produktionsfunktionen Inhaltsverzeichnis 1 Homogene Funktionen 2 1.1 Definition und

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie

Mehr

Wirtschaftsmathematik II

Wirtschaftsmathematik II WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen

Mehr

Aufgabensammlung zum UK Mathematische Optimierung

Aufgabensammlung zum UK Mathematische Optimierung Aufgabensammlung zum UK Mathematische Optimierung Mehrdimensionale Analysis Stetigkeit. Man bestimme den natürlichen Definitionsbereich D f der folgenden Funktionen f: a) f(x, y) = ln(x y ) b) f(x, y)

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Die Budgetbeschränkung, die Nutzenmaximierung. 17. März 2017

Die Budgetbeschränkung, die Nutzenmaximierung. 17. März 2017 Die Budgetbeschränkung, die Nutzenmaximierung 17. März 2017 Die Budgetbeschränkung, die Nutzenmaximierung Budgetbeschränkung: p x = p 1 x 1 + + p n x n y y > 0... nominales Einkommen (Einkommen in Währungseinheiten);

Mehr

11 Optimierung von Funktionen einer Veränderlichen

11 Optimierung von Funktionen einer Veränderlichen 11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

Mathematische Methoden der VWL

Mathematische Methoden der VWL Mathematische Methoden der VWL Kapitel 3: Komparative Statik Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 & 2018 LMU, Sommersemester 2018 1 / 76 Intuition: Grafik des Kapitels (I) 2 / 76 Syllabus

Mehr

Mathematische Methoden der VWL

Mathematische Methoden der VWL Mathematische Methoden der VWL Kapitel 3: Komparative Statik Till Stowasser Klaus Schmidt, 2001 / Till Stowasser, 2014 LMU, Wintersemester 2014/2015 1 / 76 Syllabus Syllabus 3.1 Einführung 3.2 Das Implicit-Function-Theorem

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Wertetabelle für f(x, y) = x² + y² Konstruktion des Punktes (2 2 8)

Wertetabelle für f(x, y) = x² + y² Konstruktion des Punktes (2 2 8) 6 Differentialrechnung bei Funktionen in mehreren Veränderlichen DEFINITION Es seien, ;..., n reelle unabhängige Variablen. Wenn jede Wertekombination ( ; ;..., n ) genau eine Zahl R zugeordnet ist, so

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Zusatzübungen. Berechne alle Produkte zweier oben genannten Matrizen, die möglich sind (also A B, B A, C B,..., usw., wenn möglich).

Zusatzübungen. Berechne alle Produkte zweier oben genannten Matrizen, die möglich sind (also A B, B A, C B,..., usw., wenn möglich). Zusatzübungen (Lösungen am Ende) Aufgabe 1: ( ) ( ) 1 1 2 3 1 3 A =, B =, C = 3 1 2 2 5 2 0 Berechne alle Produkte zweier oben genannten Matrizen, die möglich sind (also A B, B A, C B,..., usw., wenn möglich).

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Fred Böker Mathematik für Wirtschaftswissenschaftler Das Übungsbuch 2., aktualisierte Auflage Higher Education München Harlow Amsterdam Madrid Boston San Francisco Don Mills Meico City Sydney a part of

Mehr

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

Vorlesung 3: Versicherungsnachfrage

Vorlesung 3: Versicherungsnachfrage Vorlesung 3: Versicherungsnachfrage Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie, FS 12 Versicherungsnachfrage 1/20 2 / 20 3. 1 Das Versicherungsnachfrageproblem

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Dualität bei konvexer Optimierung

Dualität bei konvexer Optimierung Dualität bei konvexer Optimierung Seminar zur Numerik I im SS 2016 Laslo Hunhold 10. Mai 2016 Ausarbeitung zum Seminarvortrag vom 2. Mai 2016 Mathematisches Institut Mathematisch-Naturwissenschaftliche

Mehr

7.11. Extrema unter Nebenbedingungen

7.11. Extrema unter Nebenbedingungen 7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes

Mehr

2 Funktionen in mehreren Variablen: Differentiation

2 Funktionen in mehreren Variablen: Differentiation Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v

Mehr

Diplomvorprüfung für Volkswirte

Diplomvorprüfung für Volkswirte Seminar für Versicherungswissenschaft 20. Februar 2004 Prof. Ray Rees Diplomvorprüfung für Volkswirte Methoden der Volkswirtschaftslehre (VWL III) Grundstudium Sie haben für die Bearbeitung der folgenden

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Mehrdimensionale Differentialrechnung Übersicht

Mehrdimensionale Differentialrechnung Übersicht Mehrdimensionale Differentialrechnung Übersicht Partielle und Totale Differenzierbarkeit Man kann sich mehrdimensionale Funktionen am Besten für den Fall f : R 2 M R vorstellen Dann lässt sich der Graph

Mehr

Aufgabe des Monats Mai

Aufgabe des Monats Mai Aufgabe des Monats Mai 2013 1 Ein Monopolist produziere mit folgender Kostenfunktion: K(x) = x 3 12x 2 + 60x + 98 und sehe sich der Nachfragefunktion (Preis-Absatz-Funktion) p(x) = 10, 5x + 120 gegenüber.

Mehr

Technologie. Michael Strub. Mikroökonomie I HS 09

Technologie. Michael Strub. Mikroökonomie I HS 09 Technologie Michael Strub Mikroökonomie I HS 09 Inhalt Einführung Inputs und Outputs Beschreibung technologischer Beschränkungen Beispiele für Technologien Eigenschaften der Technologie Das Grenzprodukt

Mehr

2.6 Theorie des Haushalts

2.6 Theorie des Haushalts .6 Theorie des Haushalts WS 007/08 Nutzenfunktionen und Indifferenzkurven Nutzenfunktion: Hilfsmittel, um Präferenzen zu beschreiben Eine Präferenzordnung lässt sich unter den obigen Annahmen über eine

Mehr

1 Maximierung ohne Nebenbedingungen

1 Maximierung ohne Nebenbedingungen VWL III 1-1 Prof. Ray Rees 1 Maximierung ohne Nebenbedingungen Literatur: Schulbücher zur Mathematik ab der 10. Klasse Hoy et.al. (2001), Chapter 4-6, 11, 12. Chiang (1984), Chapter 9-11. Binmore (1983),

Mehr

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer

Mehr

2.3 Kriterien der Entscheidungsfindung: Präferenzen

2.3 Kriterien der Entscheidungsfindung: Präferenzen .3 Kriterien der Entscheidungsfindung: Präferenzen Der Einfachheit halber beschränken wir uns auf n = ( zwei Güter). Annahme: Konsumenten können für sich herausfinden, ob sie x = ( x, ) dem Güterbündel

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr

118 Monotone Transformation der Zielfunktion

118 Monotone Transformation der Zielfunktion SoSe 16 (3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Prüfungsklausur Mathematik II für Wirtschaftsingenieure,

Prüfungsklausur Mathematik II für Wirtschaftsingenieure, HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Mathematik II für Wirtschaftsingenieure, 06.07.2015 B Name, Vorname Matr. Nr. Sem. gr. Aufgabe 1 2 3 4 5 6 7 8 gesamt erreichbare

Mehr

Bachelorprüfung für Volkswirte. Mikroökonomie II

Bachelorprüfung für Volkswirte. Mikroökonomie II Seminar für Wirtschaftstheorie Prof. Thorsten Chmura Bachelorprüfung für Volkswirte Mikroökonomie II Die Klausur besteht aus drei Aufgaben auf insgesamt 16 Seiten. Alle drei Aufgaben müssen bearbeitet

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer

Mehr

edingung erster Ordnung ist eine notwendige aber Die hinreichende edingung für ein Maimum keine die edingung erster Ordnung erfüllt ist, können wir We

edingung erster Ordnung ist eine notwendige aber Die hinreichende edingung für ein Maimum keine die edingung erster Ordnung erfüllt ist, können wir We sei eine reelle Zahl und f () eine reellwertige Funktion, Dabei die wenigstens zweimal differenzierbar ist Λ ein Maimum dieser Funktion ist, dann muß die Wenn der Funktion an Λ genau gleich 0 sein Warum?

Mehr

Hinweise zur Mathematik

Hinweise zur Mathematik Hinweise zur Mathematik Max Albert, Henrik Egbert, Lothar Grall & Andreas Hildenbrand WS 14/15 1 Mikroökonomische Theorie II Vorlesung und Übung setzen den Stoff der Mathematikveranstaltung des ersten

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 19 8. Juli 2010 Kapitel 14. Gewöhnliche Differentialgleichungen zweiter Ordnung 14.1 Systeme gewöhnlicher linearer Differentialgleichungen erster

Mehr

Lösung - Serie 25. D-MAVT/D-MATL Analysis II FS 2017 Dr. Andreas Steiger

Lösung - Serie 25. D-MAVT/D-MATL Analysis II FS 2017 Dr. Andreas Steiger D-MAVT/D-MATL Analysis II FS 2017 Dr. Andreas Steiger Lösung - Serie 25 1. Wie lautet die charakteristische Gleichung der Differentialgleichung y + 2y + y = 0? (a) λ 3 + 2λ + 1 = 0 (b) λ 3 + 2λ = 0 (c)

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II... ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 3 Unterschrift der Kandidatin/des Kandidaten 4 TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

4 Theorie der Konsumentennachfrage

4 Theorie der Konsumentennachfrage VWL III 4-1 Prof. Ray Rees 4 Theorie der Konsumentennachfrage Literatur: McKenna und Rees (1992), Chapter 7. Gravelle und Rees (1992), Chapter 4 A-C. MasColell, Whinston, Green (1995), Chapter 3. 4.1 Einführung

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe

Mehr