Kuhn-Tucker Bedingung

Größe: px
Ab Seite anzeigen:

Download "Kuhn-Tucker Bedingung"

Transkript

1 Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c, x, y 0 : Wir suchen das Maximum von f (x, y) = (x 5) (y 5) x + y 9, x, y 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung / Graphische Lösung Im Falle von zwei Variablen können wir das Problem graphisch lösen. 1. Zeichne die Nebenbedingung g(x, y) c in die xy-ebene ein. (Fläche in der Ebene). Zeichne geeignete Niveaulinien der zu optimierenden Funktion f (x, y) ein. 3. Untersuche an Hand der Zeichnung welche Niveaulinien den zulässigen Bereich schneiden und bestimme die ungefähre Lage des Maximums. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 3 /

2 Graphische Lösung Maximum in (,; 4,3) Maximum von f (x, y) = (x 5) (y 5) gegeben g(x, y) = x + y 9, x, y 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 4 / Graphische Lösung Maximum in (1,1) Maximum von f (x, y) = (x 1) (y 1) gegeben g(x, y) = x + y 9, x, y 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 5 / Optimierung unter Nebenbedingungen Berechne das Maximum der Funktion f (x 1,..., x n ) g 1 (x 1,..., x n ) c 1. g k (x 1,..., x n ) c k x 1,..., x n 0 (Nichtnegativitätsbedingung) Optimierungsproblem: max f (x) gegeben g(x) c und x 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 6 /

3 Nichtnegativitätsbedingung Funktion f in einer Variable mit Nichtnegativitätsbedingung. Für ein Maximum x gilt: x liegt im Inneren des zulässigen Bereichs: x > 0 und f (x ) = 0. x liegt am Rand: x = 0 und f (x ) 0. Zusammengefasst: f (x ) 0, x 0 und x f (x ) = 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 7 / Nichtnegativitätsbedingung Im Falle einer Funktion f (x) in mehreren Variablen erhalten wir für jede Variable x j so eine Bedingung: f xj (x ) 0, x j 0 und x j f xj (x ) = 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 8 / Schlupfvariable Maximiere f (x 1,..., x n ) g 1 (x 1,..., x n ) + s 1 = c 1. g k (x 1,..., x n ) + s k = c k Lagrange-Funktion: x 1,..., x n 0 s 1,..., s k 0 (neue Nichtnegativitätsbedingung) L(x, s, λ) = f (x 1,..., x n ) + k i=1 λ i (c i g i (x 1,..., x n ) s i ) Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 9 /

4 Schlupfvariable L(x, s, λ) = f (x 1,..., x n ) + k i=1 Berücksichtigen der Nichtnegativitätsbedingung: 0, x j 0 und x j = 0 x j x j 0, s i 0 und s i = 0 s i s i λ i (c i g i (x 1,..., x n ) s i ) λ i = 0 (keine Nichtnegativitätsbedingung) Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 10 / Eliminieren der Schlupfvariablen Wegen s i = λ i wird die zweite Zeile zu Aus λ i 0, s i 0 und λ i s i = 0 λ i = c i g i (x) s i = 0 folgt s i = c i g i (x) und wir erhalten daher: λ i 0, c i g i (x) 0 und λ i (c i g i (x)) = 0 Jetzt brauchen wir die Schlupfvariablen nicht mehr. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 11 / Eliminieren der Schlupfvariablen Verwenden statt L die Lagrange-Funktion Es gilt: L(x, λ) = f (x 1,..., x n ) + = x j x j und k i=1 λ i (c i g i (x 1,..., x n )) λ i = c i g i (x) Wir können daher die zweite Zeile der Bedingungen für ein lokales Maximum unter Nebenbedingungen schreiben als λ i 0, 0 und λ i = 0 λ i λ i Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 /

5 Kuhn-Tucker Bedingung L(x, λ) = f (x 1,..., x n ) + k i=1 λ i (c i g i (x 1,..., x n )) Die Kuhn-Tucker Bedingung für ein (lokales) Maximum lauten: 0, x j 0 und x j = 0 x j x j 0, λ i 0 und λ i = 0 λ i λ i Die Kuhn-Tucker Bedingung ist nicht hinreichend. (Analog zu kritischen Punkten). Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 13 / Wir suchen das Maximum von f (x, y) = (x 5) (y 5) x + y 9, x, y 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 14 / Lagrange-Funktion: L(x, y; λ) = (x 5) (y 5) + λ(9 x y) Kuhn-Tucker-Bedingung: (A) L x = (x 5) λx 0 (B) L y = (y 5) λ 0 (C) L λ = 9 x y 0 (N) x, y, λ 0 (I) x L x = x((x 5) + λx) = 0 (II) y L y = y((y 5) + λ) = 0 (III) λ L λ = λ(9 x y) = 0 Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 15 /

6 Schreiben (I) (I I I) an als (I) x = 0 oder (x 5) + λx = 0 (II) y = 0 oder (y 5) + λ = 0 (III) λ = 0 oder 9 x y = 0 Müssen nun alle 8 Möglichkeiten ausrechnen, und überprüfen ob die entsprechenden Lösungen die Ungleichungen (A), (B), (C) und (N) erfüllen. Falls λ = 0 (III, links), dann gibt es wegen (I) und (II) vier Lösungen für (x, y; λ): (0,0; 0), (5,0; 0), (0,5; 0) und (5,5; 0). Keiner dieser Punkte erfüllt alle Ungleichungen (A), (B) und (C). Daher: λ = 0. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 16 / Wenn λ = 0, dann gilt wegen (III, rechts): y = 9 x. Wenn nun λ = 0 und x = 0, dann ist y = 9 und wegen (II, rechts), λ = 8. Ein Widerspruch zu (N). Wenn λ = 0 und y = 0, dann ist x = 3 and wegen (I, rechts), λ = 3. Ein Widerspruch zu (B). Alle drei Variablen müssen daher ungleich 0 sein. Daher ist y = 9 x und λ = (y 5) = (4 x ). Eingesetzt in (I) erhalten wir (x 5) 4(4 x )x = 0 und x = 11+1,158 y = ,34 λ = 11 1,317 Die Kuhn-Tucker-Bedingung wird daher nur vom Punkt ( (x, y; λ) = 11+1, 1 11 ; ) 11 erfüllt. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 17 / Kuhn-Tucker Bedingung Die Kuhn-Tucker Bedingung ist leider auch nicht notwendig! D.h., es gibt Optimierungsprobleme, in denen das Maximum die Kuhn-Tucker Bedingung nicht erfüllt. Maximum Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 18 /

7 Der Satz von Kuhn-Tucker Wir brauchen ein Werkzeug, um festzustellen, ob ein Punkt ein (globales) Maximum ist. Das ist aber nicht immer leicht. Der Satz von Kuhn-Tucker gibt für einen Spezialfall eine hinreichende Bedingung: (1) Die Zielfunktion f (x) sei differenzierbar und konkav. () Die Funktionen der Nebenbedingungen g i (x), i = 1,..., k, seien alle differenzierbar und konvex. (3) Der Punkt x erfüllt die Kuhn-Tucker-Bedingung. Dann ist x ein globales Maximum von f unter den Nebenbedingungen g i c i. Das Maximum ist eindeutig, wenn die Funktion f streng konkav ist. Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 19 / Wir suchen das Maximum von f (x, y) = (x 5) (y 5) x + y 9, x, y 0 Die Hessematrizen von f (x, y) und g(x, y) = x + y lauten ( ) ( ) 0 0 H f = und H g = Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 0 / ( ) 0 H f = 0 ( ) 0 und H g = 0 0 (1) f ist streng konkav. () g ist konvex. ( (3) Der Punkt (x, y; λ) = 11+1, 1 11 ; ) 11 erfüllt die Kuhn-Tucker-Bedingung. Daher ist nach dem Satz von Kuhn-Tucker x = ( 11+1 gesuchte globale Maximum., 1 11 ) das Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 /

8 Zusammenfassung Optimierung unter Nebenbedingungen Graphische Lösung Lagrange-Funktion Kuhn-Tucker Bedingung Satz von Kuhn-Tucker Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung /

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Kapitel 15. Kontrolltheorie. Josef Leydold Mathematik für VW WS 2017/18 15 Kontrolltheorie 1 / 19. T (1 s(t)) f (k(t)) dt

Kapitel 15. Kontrolltheorie. Josef Leydold Mathematik für VW WS 2017/18 15 Kontrolltheorie 1 / 19. T (1 s(t)) f (k(t)) dt Kapitel 15 Kontrolltheorie Josef Leydold Mathematik für VW WS 217/18 15 Kontrolltheorie 1 / 19 Wirtschaftswachstum Aufgabe: Maximiere Konsum im Zeitraum [, T]: max s(t) 1 (1 s(t)) f (k(t)) dt f (k)...

Mehr

Inverse und implizite Funktionen

Inverse und implizite Funktionen Kapitel 8 Inverse und implizite Funktionen Josef Leydold Mathematik für VW WS 2017/18 8 Inverse und implizite Funktionen 1 / 21 Inverse Funktion Sei f : D f R n W f R m, x y f(x). Eine Funktion f 1 : W

Mehr

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) = Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Inverse und implizite Funktionen

Inverse und implizite Funktionen Kapitel 8 Inverse und implizite Funktionen Josef Leydold Mathematik für VW WS 2017/18 8 Inverse und implizite Funktionen 1 / 21 Inverse Funktion Sei f : D f R n W f R m, x y = f(x). Eine Funktion f 1 :

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Klausur Mathematik 1 für Wirtschaftswissenschaftler

Klausur Mathematik 1 für Wirtschaftswissenschaftler Klausur Mathematik 1 für Wirtschaftswissenschaftler WS 2003/04 Prof. Dr. Matthias Blonski Man beachte folgende Hinweise: 1. Die Klausur umfaßt 5 Aufgaben (jeweils auf einem Blatt) zuzüglich einer Lösungsliste,

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung) (3D-)Extrema unter Nebenbedingungen Wir beschränken uns wieder (meistens) auf Funktionen von zwei Variablen x, y. Bei drei oder mehr Variablen x 1,..., x n sind die gleichen Techniken analog anwendbar,

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz Dr P C Kunstmann Dipl-Math M Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive Komplexe

Mehr

10. Übungsblatt zur Analysis II

10. Übungsblatt zur Analysis II Fachbereich Mathematik Prof. Dr. Steffen Roch Nada Sissouno WS 2009/2010 17.12.2009 10. Übungsblatt zur Analysis II Gruppenübung Aufgabe G1 Gegeben sei die Funktion g : R 2 R, g(x,y) = sin 2 y + x 3 1.

Mehr

3. Übung zum G8-Vorkurs Mathematik (WiSe 2011/12)

3. Übung zum G8-Vorkurs Mathematik (WiSe 2011/12) Technische Universität München Zentrum Mathematik PD Dr. Christian Karpfinger http://www.ma.tum.de/mathematik/g8vorkurs 3. Übung zum G8-Vorkurs Mathematik (WiSe 0/) Aufgabe 3.: Gehen Sie die Inhalte der

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1 1 Funktionen Definition 1 (Funktion). Übungsblatt 1 Eine Funktion f(x) einer reellen Variable x mit Definitionsbereich D ist eine Regel, die jeder Zahl x in D eine reelle Zahl f(x) eindeutig zuordnet.

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

10 Extremwertaufgaben, dreidimensional

10 Extremwertaufgaben, dreidimensional Dr. Dirk Windelberg Leibniz Universität Hannover Mathematik für Ingenieure Mathematik http://www.windelberg.de/agq 10 Extremwertaufgaben, dreidimensional 3D: Notwendige Bedingung für das Auftreten eines

Mehr

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung TU Bergakademie Freiberg Sommersemester Dr. Gunter Semmler Dr. Anja Kohl Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung Differentialrechnung für Funktionen

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

Wirtschaftsmathematik II

Wirtschaftsmathematik II WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen

Mehr

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert 14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen

Mehr

Substitutionsverfahren

Substitutionsverfahren Substitutionsverfahren 1 Motivation Wir stehen vor folgendem Problem: In unserem Betrieb kann unsere einzige Maschine Produkt A in zwei Stunden und Produkt B in einer Stunde produzieren. Die Maschine läuft

Mehr

11 Optimierung von Funktionen einer Veränderlichen

11 Optimierung von Funktionen einer Veränderlichen 11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen

Mehr

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) = 2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

1 Aufgabe 1 mit Lösung

1 Aufgabe 1 mit Lösung Mathematik I für Wirtschaftsingenieure/ informatiker Prüfungsklausur 4. Februar 99 mit Lösung Ermitteln Sie alle reellen Zahlen x, für die x x < gilt! Fallunterscheidung: x< : ( x) > (x ), x > x + 4, x

Mehr

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015 Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x. Technische Universität München WS 009/0 Fakultät für Mathematik Prof. Dr. J. Edenhofer Dipl.-Ing. W. Schultz Übung Lösungsvorschlag Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I Aufgabe

Mehr

Technische Universität Berlin Fakultät II Institut für Mathematik WS 11/12 Böse, Penn-Karras, Schneider

Technische Universität Berlin Fakultät II Institut für Mathematik WS 11/12 Böse, Penn-Karras, Schneider Technische Universität Berlin Fakultät II Institut für Mathematik WS / Böse, Penn-Karras, Schneider 5.4. Rechenteil April Klausur Analysis II für Ingenieure Musterlösung. Aufgabe 3 Punkte Wir haben g(x,

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

Extrema von Funktionen mit Nebenbedingung

Extrema von Funktionen mit Nebenbedingung Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen mit Nebenbedingung Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Extremwertrechnung in mehreren Veränderlichen

Extremwertrechnung in mehreren Veränderlichen KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann SS 2014 14.05.2014 Höhere Mathematik II für die Fachrichtung Informatik 3. Saalübung (14.05.2014) Extremwertrechnung

Mehr

Lösungen zu Mathematik I/II

Lösungen zu Mathematik I/II Prof. Dr. E. W. Farkas ETH Zürich, Februar 11 D BIOL, D CHAB Lösungen zu Mathematik I/II Aufgaben 1. 1 Punkte a Wir berechnen lim x x + x + 1 x + x 3 + x = 1. b Wir benutzen L Hôpital e x e x lim x sinx

Mehr

Aufgabensammlung zum UK Mathematische Optimierung

Aufgabensammlung zum UK Mathematische Optimierung Aufgabensammlung zum UK Mathematische Optimierung Mehrdimensionale Analysis Stetigkeit. Man bestimme den natürlichen Definitionsbereich D f der folgenden Funktionen f: a) f(x, y) = ln(x y ) b) f(x, y)

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme. Kapitel 3 Gleichungen und Ungleichungen linke Seite = rechte Seite Grundmenge: Menge aller Zahlen, die wir als Lösung der Gleichung

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr

Kapitel 7. Differentialrechnung. Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56

Kapitel 7. Differentialrechnung. Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56 Kapitel 7 Differentialrechnung Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56 Differenzenquotient Sei f : R R eine Funktion. Der Quotient f x = f (x 0 + x) f (x 0 ) x = f (x)

Mehr

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler Ein Buch Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler (Aber bei der Mathematik ein bisschen aufpassen!) 4 Extremstellen

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität

Mehr

Wirtschaftsmathematik-Klausur vom und Finanzmathematik-Klausur vom

Wirtschaftsmathematik-Klausur vom und Finanzmathematik-Klausur vom Wirtschaftsmathematik-Klausur vom 07.02.2014 und Finanzmathematik-Klausur vom 27.01.2014 Bearbeitungszeit: W-Mathe 60 Minuten, F-Mathe 45 Minuten Aufgabe 1 GegebensindinAbhängigkeit der produzierten und

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Technische Universität Berlin

Technische Universität Berlin Technische Universität Berlin Fakultät II Institut für Mathematik WS /5 G. Bärwol, A. Gündel-vom-Hofe..5 Februar Klausur Analysis II für Ingenieurswissenschaften Lösungsskizze. Aufgabe 6Punkte Bestimmen

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

Klausur Mathematik, 1. Oktober 2012, A

Klausur Mathematik, 1. Oktober 2012, A Klausur, Mathematik, Oktober 2012, Lösungen, A 1 Klausur Mathematik, 1. Oktober 2012, A Die Klausureinsicht ist Do, 8.11.2012 um 18:00 in MZG 8.136. Die Klausur ist mit 30 Punkten bestanden. Falls Sie

Mehr

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester 2011 30.09.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................

Mehr

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine

Mehr

2 Funktionen in mehreren Variablen: Differentiation

2 Funktionen in mehreren Variablen: Differentiation Satz 2. (Richtungsableitung) Für jede auf der offenen Menge D R n total differenzierbaren Funktion f (insbesondere für f C 1 (D, R) und für jeden Vektor v R n, v 0, gilt: n v f(x) = f(x) v = f xi (x)v

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

1. Hausaufgabenblatt (16.04./ )

1. Hausaufgabenblatt (16.04./ ) Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften

BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften Musterl osung BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften Analysis II Klausur WS 211/212 Prof. Dr. Hartmut Pecher 3.2.212, 9:15 Uhr Name Matr.Nr. Studienfach Fachsemester

Mehr

9 Differentialrechnung für Funktionen in n Variablen

9 Differentialrechnung für Funktionen in n Variablen $Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation

Mehr

Der metrische Raum (X, d) ist gegeben. Zeigen Sie, dass auch

Der metrische Raum (X, d) ist gegeben. Zeigen Sie, dass auch TECHNISCHE UNIVERSITÄT BERLIN SS 07 Institut für Mathematik Stand: 3. Juli 007 Ferus / Garcke Lösungsskizzen zur Klausur vom 6.07.07 Analysis II. Aufgabe (5 Punkte Der metrische Raum (X, d ist gegeben.

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler. Übungsblatt 6. f(x, y, z) = xyz + 3e x y

D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler. Übungsblatt 6. f(x, y, z) = xyz + 3e x y D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler Übungsblatt 6 1. Es seien f : R 2 R 3 und g : R 3 R 3 die Funktionen definiert durch x cos(y) 2 y 2 f(x, y) = x sin(y) und g(x, y, z)

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

(k!) 2 ((n + 1)!) 2 n.

(k!) 2 ((n + 1)!) 2 n. Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KSL15 6 Punkte Aufgabe 1. Zeigen Sie, dass für alle n N gilt: n k=0 Für n = 0 und n = 1 gilt die Behauptung, da bzw. 1

Mehr

Extremalprobleme mit Nebenbedingungen

Extremalprobleme mit Nebenbedingungen Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 2016 Prof. Dr. Stefan Etschberger HSA Mögliche Fälle für Z Etschberger - WS2016 1 Z =, d.h., es existiert keine zulässige (x 1, x 2 )-Kombination. 2

Mehr