Kuhn-Tucker Bedingung
|
|
- Marie Salzmann
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c, x, y 0 : Wir suchen das Maximum von f (x, y) = (x 5) (y 5) x + y 9, x, y 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung / Graphische Lösung Im Falle von zwei Variablen können wir das Problem graphisch lösen. 1. Zeichne die Nebenbedingung g(x, y) c in die xy-ebene ein. (Fläche in der Ebene). Zeichne geeignete Niveaulinien der zu optimierenden Funktion f (x, y) ein. 3. Untersuche an Hand der Zeichnung welche Niveaulinien den zulässigen Bereich schneiden und bestimme die ungefähre Lage des Maximums. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 3 /
2 Graphische Lösung Maximum in (,; 4,3) Maximum von f (x, y) = (x 5) (y 5) gegeben g(x, y) = x + y 9, x, y 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 4 / Graphische Lösung Maximum in (1,1) Maximum von f (x, y) = (x 1) (y 1) gegeben g(x, y) = x + y 9, x, y 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 5 / Optimierung unter Nebenbedingungen Berechne das Maximum der Funktion f (x 1,..., x n ) g 1 (x 1,..., x n ) c 1. g k (x 1,..., x n ) c k x 1,..., x n 0 (Nichtnegativitätsbedingung) Optimierungsproblem: max f (x) gegeben g(x) c und x 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 6 /
3 Nichtnegativitätsbedingung Funktion f in einer Variable mit Nichtnegativitätsbedingung. Für ein Maximum x gilt: x liegt im Inneren des zulässigen Bereichs: x > 0 und f (x ) = 0. x liegt am Rand: x = 0 und f (x ) 0. Zusammengefasst: f (x ) 0, x 0 und x f (x ) = 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 7 / Nichtnegativitätsbedingung Im Falle einer Funktion f (x) in mehreren Variablen erhalten wir für jede Variable x j so eine Bedingung: f xj (x ) 0, x j 0 und x j f xj (x ) = 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 8 / Schlupfvariable Maximiere f (x 1,..., x n ) g 1 (x 1,..., x n ) + s 1 = c 1. g k (x 1,..., x n ) + s k = c k Lagrange-Funktion: x 1,..., x n 0 s 1,..., s k 0 (neue Nichtnegativitätsbedingung) L(x, s, λ) = f (x 1,..., x n ) + k i=1 λ i (c i g i (x 1,..., x n ) s i ) Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 9 /
4 Schlupfvariable L(x, s, λ) = f (x 1,..., x n ) + k i=1 Berücksichtigen der Nichtnegativitätsbedingung: 0, x j 0 und x j = 0 x j x j 0, s i 0 und s i = 0 s i s i λ i (c i g i (x 1,..., x n ) s i ) λ i = 0 (keine Nichtnegativitätsbedingung) Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 10 / Eliminieren der Schlupfvariablen Wegen s i = λ i wird die zweite Zeile zu Aus λ i 0, s i 0 und λ i s i = 0 λ i = c i g i (x) s i = 0 folgt s i = c i g i (x) und wir erhalten daher: λ i 0, c i g i (x) 0 und λ i (c i g i (x)) = 0 Jetzt brauchen wir die Schlupfvariablen nicht mehr. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 11 / Eliminieren der Schlupfvariablen Verwenden statt L die Lagrange-Funktion Es gilt: L(x, λ) = f (x 1,..., x n ) + = x j x j und k i=1 λ i (c i g i (x 1,..., x n )) λ i = c i g i (x) Wir können daher die zweite Zeile der Bedingungen für ein lokales Maximum unter Nebenbedingungen schreiben als λ i 0, 0 und λ i = 0 λ i λ i Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 /
5 Kuhn-Tucker Bedingung L(x, λ) = f (x 1,..., x n ) + k i=1 λ i (c i g i (x 1,..., x n )) Die Kuhn-Tucker Bedingung für ein (lokales) Maximum lauten: 0, x j 0 und x j = 0 x j x j 0, λ i 0 und λ i = 0 λ i λ i Die Kuhn-Tucker Bedingung ist nicht hinreichend. (Analog zu kritischen Punkten). Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 13 / Wir suchen das Maximum von f (x, y) = (x 5) (y 5) x + y 9, x, y 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 14 / Lagrange-Funktion: L(x, y; λ) = (x 5) (y 5) + λ(9 x y) Kuhn-Tucker-Bedingung: (A) L x = (x 5) λx 0 (B) L y = (y 5) λ 0 (C) L λ = 9 x y 0 (N) x, y, λ 0 (I) x L x = x((x 5) + λx) = 0 (II) y L y = y((y 5) + λ) = 0 (III) λ L λ = λ(9 x y) = 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 15 /
6 Schreiben (I) (I I I) an als (I) x = 0 oder (x 5) + λx = 0 (II) y = 0 oder (y 5) + λ = 0 (III) λ = 0 oder 9 x y = 0 Müssen nun alle 8 Möglichkeiten ausrechnen, und überprüfen ob die entsprechenden Lösungen die Ungleichungen (A), (B), (C) und (N) erfüllen. Falls λ = 0 (III, links), dann gibt es wegen (I) und (II) vier Lösungen für (x, y; λ): (0,0; 0), (5,0; 0), (0,5; 0) und (5,5; 0). Keiner dieser Punkte erfüllt alle Ungleichungen (A), (B) und (C). Daher: λ = 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 16 / Wenn λ = 0, dann gilt wegen (III, rechts): y = 9 x. Wenn nun λ = 0 und x = 0, dann ist y = 9 und wegen (II, rechts), λ = 8. Ein Widerspruch zu (N). Wenn λ = 0 und y = 0, dann ist x = 3 and wegen (I, rechts), λ = 3. Ein Widerspruch zu (B). Alle drei Variablen müssen daher ungleich 0 sein. Daher ist y = 9 x und λ = (y 5) = (4 x ). Eingesetzt in (I) erhalten wir (x 5) 4(4 x )x = 0 und x = 11+1,158 y = ,34 λ = 11 1,317 Die Kuhn-Tucker-Bedingung wird daher nur vom Punkt ( (x, y; λ) = 11+1, 1 11 ; ) 11 erfüllt. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 17 / Kuhn-Tucker Bedingung Die Kuhn-Tucker Bedingung ist leider auch nicht notwendig! D.h., es gibt Optimierungsprobleme, in denen das Maximum die Kuhn-Tucker Bedingung nicht erfüllt. Maximum Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 18 /
7 Der Satz von Kuhn-Tucker Wir brauchen ein Werkzeug, um festzustellen, ob ein Punkt ein (globales) Maximum ist. Das ist aber nicht immer leicht. Der Satz von Kuhn-Tucker gibt für einen Spezialfall eine hinreichende Bedingung: (1) Die Zielfunktion f (x) sei differenzierbar und konkav. () Die Funktionen der Nebenbedingungen g i (x), i = 1,..., k, seien alle differenzierbar und konvex. (3) Der Punkt x erfüllt die Kuhn-Tucker-Bedingung. Dann ist x ein globales Maximum von f unter den Nebenbedingungen g i c i. Das Maximum ist eindeutig, wenn die Funktion f streng konkav ist. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 19 / Wir suchen das Maximum von f (x, y) = (x 5) (y 5) x + y 9, x, y 0 Die Hessematrizen von f (x, y) und g(x, y) = x + y lauten ( ) ( ) 0 0 H f = und H g = Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 0 / ( ) 0 H f = 0 ( ) 0 und H g = 0 0 (1) f ist streng konkav. () g ist konvex. ( (3) Der Punkt (x, y; λ) = 11+1, 1 11 ; ) 11 erfüllt die Kuhn-Tucker-Bedingung. Daher ist nach dem Satz von Kuhn-Tucker x = ( 11+1 gesuchte globale Maximum., 1 11 ) das Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 /
8 Zusammenfassung Optimierung unter Nebenbedingungen Graphische Lösung Lagrange-Funktion Kuhn-Tucker Bedingung Satz von Kuhn-Tucker Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung /
Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2
Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
MehrFK WMS: Wirtschaftsmathematik 2, Einheit 7/8
FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrKapitel 15. Kontrolltheorie. Josef Leydold Mathematik für VW WS 2017/18 15 Kontrolltheorie 1 / 19. T (1 s(t)) f (k(t)) dt
Kapitel 15 Kontrolltheorie Josef Leydold Mathematik für VW WS 217/18 15 Kontrolltheorie 1 / 19 Wirtschaftswachstum Aufgabe: Maximiere Konsum im Zeitraum [, T]: max s(t) 1 (1 s(t)) f (k(t)) dt f (k)...
MehrInverse und implizite Funktionen
Kapitel 8 Inverse und implizite Funktionen Josef Leydold Mathematik für VW WS 2017/18 8 Inverse und implizite Funktionen 1 / 21 Inverse Funktion Sei f : D f R n W f R m, x y f(x). Eine Funktion f 1 : W
MehrHöhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =
Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
Mehr10 Extremwerte mit Nebenbedingungen
10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen
MehrInverse und implizite Funktionen
Kapitel 8 Inverse und implizite Funktionen Josef Leydold Mathematik für VW WS 2017/18 8 Inverse und implizite Funktionen 1 / 21 Inverse Funktion Sei f : D f R n W f R m, x y = f(x). Eine Funktion f 1 :
MehrÜbung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
MehrKlausur Mathematik 1 für Wirtschaftswissenschaftler
Klausur Mathematik 1 für Wirtschaftswissenschaftler WS 2003/04 Prof. Dr. Matthias Blonski Man beachte folgende Hinweise: 1. Die Klausur umfaßt 5 Aufgaben (jeweils auf einem Blatt) zuzüglich einer Lösungsliste,
MehrOptimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
Mehr(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)
(3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrMathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )
Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse
MehrUNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe
Mehr10. Übungsblatt zur Analysis II
Fachbereich Mathematik Prof. Dr. Steffen Roch Nada Sissouno WS 2009/2010 17.12.2009 10. Übungsblatt zur Analysis II Gruppenübung Aufgabe G1 Gegeben sei die Funktion g : R 2 R, g(x,y) = sin 2 y + x 3 1.
Mehr3. Übung zum G8-Vorkurs Mathematik (WiSe 2011/12)
Technische Universität München Zentrum Mathematik PD Dr. Christian Karpfinger http://www.ma.tum.de/mathematik/g8vorkurs 3. Übung zum G8-Vorkurs Mathematik (WiSe 0/) Aufgabe 3.: Gehen Sie die Inhalte der
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
MehrMikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1
1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
Mehr10 Extremwertaufgaben, dreidimensional
Dr. Dirk Windelberg Leibniz Universität Hannover Mathematik für Ingenieure Mathematik http://www.windelberg.de/agq 10 Extremwertaufgaben, dreidimensional 3D: Notwendige Bedingung für das Auftreten eines
MehrHöhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung
TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen
MehrKarlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik
MehrWirtschaftsmathematik II
WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen
Mehr14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert
14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen
MehrSubstitutionsverfahren
Substitutionsverfahren 1 Motivation Wir stehen vor folgendem Problem: In unserem Betrieb kann unsere einzige Maschine Produkt A in zwei Stunden und Produkt B in einer Stunde produzieren. Die Maschine läuft
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
Mehrzul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =
2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
Mehr1 Aufgabe 1 mit Lösung
Mathematik I für Wirtschaftsingenieure/ informatiker Prüfungsklausur 4. Februar 99 mit Lösung Ermitteln Sie alle reellen Zahlen x, für die x x < gilt! Fallunterscheidung: x< : ( x) > (x ), x > x + 4, x
MehrSerie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015
Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrMathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.
Technische Universität München WS 009/0 Fakultät für Mathematik Prof. Dr. J. Edenhofer Dipl.-Ing. W. Schultz Übung Lösungsvorschlag Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I Aufgabe
MehrTechnische Universität Berlin Fakultät II Institut für Mathematik WS 11/12 Böse, Penn-Karras, Schneider
Technische Universität Berlin Fakultät II Institut für Mathematik WS / Böse, Penn-Karras, Schneider 5.4. Rechenteil April Klausur Analysis II für Ingenieure Musterlösung. Aufgabe 3 Punkte Wir haben g(x,
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
MehrExtrema von Funktionen mit Nebenbedingung
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,
MehrExtremwertrechnung in mehreren Veränderlichen
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann SS 2014 14.05.2014 Höhere Mathematik II für die Fachrichtung Informatik 3. Saalübung (14.05.2014) Extremwertrechnung
MehrLösungen zu Mathematik I/II
Prof. Dr. E. W. Farkas ETH Zürich, Februar 11 D BIOL, D CHAB Lösungen zu Mathematik I/II Aufgaben 1. 1 Punkte a Wir berechnen lim x x + x + 1 x + x 3 + x = 1. b Wir benutzen L Hôpital e x e x lim x sinx
MehrAufgabensammlung zum UK Mathematische Optimierung
Aufgabensammlung zum UK Mathematische Optimierung Mehrdimensionale Analysis Stetigkeit. Man bestimme den natürlichen Definitionsbereich D f der folgenden Funktionen f: a) f(x, y) = ln(x y ) b) f(x, y)
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrGleichungen und Ungleichungen
Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme. Kapitel 3 Gleichungen und Ungleichungen linke Seite = rechte Seite Grundmenge: Menge aller Zahlen, die wir als Lösung der Gleichung
MehrGleichungen und Ungleichungen
Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.
MehrGleichungen und Ungleichungen
Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.
MehrDifferenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie
Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x
MehrKapitel 7. Differentialrechnung. Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56
Kapitel 7 Differentialrechnung Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56 Differenzenquotient Sei f : R R eine Funktion. Der Quotient f x = f (x 0 + x) f (x 0 ) x = f (x)
MehrEin Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler
Ein Buch Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler (Aber bei der Mathematik ein bisschen aufpassen!) 4 Extremstellen
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
MehrExtrema mit Nebenbedingungen
Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
MehrOutline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
MehrWirtschaftsmathematik-Klausur vom und Finanzmathematik-Klausur vom
Wirtschaftsmathematik-Klausur vom 07.02.2014 und Finanzmathematik-Klausur vom 27.01.2014 Bearbeitungszeit: W-Mathe 60 Minuten, F-Mathe 45 Minuten Aufgabe 1 GegebensindinAbhängigkeit der produzierten und
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrTechnische Universität Berlin
Technische Universität Berlin Fakultät II Institut für Mathematik WS /5 G. Bärwol, A. Gündel-vom-Hofe..5 Februar Klausur Analysis II für Ingenieurswissenschaften Lösungsskizze. Aufgabe 6Punkte Bestimmen
MehrProbeklausur Optimierung
Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
MehrKlausur Mathematik, 1. Oktober 2012, A
Klausur, Mathematik, Oktober 2012, Lösungen, A 1 Klausur Mathematik, 1. Oktober 2012, A Die Klausureinsicht ist Do, 8.11.2012 um 18:00 in MZG 8.136. Die Klausur ist mit 30 Punkten bestanden. Falls Sie
MehrMathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester
Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester 2011 30.09.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................
MehrOptimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine
Mehr2 Funktionen in mehreren Variablen: Differentiation
Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
Mehr1. Hausaufgabenblatt (16.04./ )
Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme
MehrAnalysis II 14. Übungsblatt
Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau
MehrOptimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
Mehr3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z
R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des
MehrBERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften
Musterl osung BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften Analysis II Klausur WS 211/212 Prof. Dr. Hartmut Pecher 3.2.212, 9:15 Uhr Name Matr.Nr. Studienfach Fachsemester
Mehr9 Differentialrechnung für Funktionen in n Variablen
$Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima
Mehr1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrSattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen
Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation
MehrDer metrische Raum (X, d) ist gegeben. Zeigen Sie, dass auch
TECHNISCHE UNIVERSITÄT BERLIN SS 07 Institut für Mathematik Stand: 3. Juli 007 Ferus / Garcke Lösungsskizzen zur Klausur vom 6.07.07 Analysis II. Aufgabe (5 Punkte Der metrische Raum (X, d ist gegeben.
MehrNachklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrD-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler. Übungsblatt 6. f(x, y, z) = xyz + 3e x y
D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler Übungsblatt 6 1. Es seien f : R 2 R 3 und g : R 3 R 3 die Funktionen definiert durch x cos(y) 2 y 2 f(x, y) = x sin(y) und g(x, y, z)
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
Mehr(k!) 2 ((n + 1)!) 2 n.
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KSL15 6 Punkte Aufgabe 1. Zeigen Sie, dass für alle n N gilt: n k=0 Für n = 0 und n = 1 gilt die Behauptung, da bzw. 1
MehrExtremalprobleme mit Nebenbedingungen
Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 2016 Prof. Dr. Stefan Etschberger HSA Mögliche Fälle für Z Etschberger - WS2016 1 Z =, d.h., es existiert keine zulässige (x 1, x 2 )-Kombination. 2
Mehr