Globalizing convergence of piecewise Newton methods

Cover Page

Cite item

Full Text

Abstract

We consider versions of the Newton method for piecewise smooth nonlinear equations, as well as of the Gauss–Newton method for the case when additional constraints are imposed, supplied with linesearch procedures for the residual of the equation, aiming at globalization of convergence. (Constrained) piecewise smooth nonlinear equations arise naturally as reformulations of systems of equations and inequalities involving complementarity conditions. In cases when the direction of the Newton method cannot be computed, or appears too long, the algorithm switches to a safeguarding step of the gradient descent method for the squared residual of of the equation with smooth selection mapping active at the current iterate. For the Gauss–Newton method, safeguarding steps of the gradient projection method are employed. We obtain results characterizing properties of possible accumulation points of sequences generated by these methods, namely, stationarity of any such point for at least one smooth selection mapping active at it, and conditions assuring asymptotic superlinear convergence rate of such sequences. Special attention is paid to the majorization condition for the norm of the mapping by the norms of smooth selection mappings, playing a crucial role in the analysis for the piecewise smooth case. Examples are provided demonstrating that in cases of violation of this condition, the algorithms in question may produce sequences converging to points that are not stationary for any active smooth selection mapping.

Full Text

Введение

Рассматривается уравнение с ограничением

ΦuuP, (0.1)

 где Φpq — заданное отображение, а Pp — заданное непустое замкнутое множество. Целью данной работы является глобализация сходимости ньютоновских методов для задачи (0.1) в пониженных требованиях гладкости. Основным объектом интереса является случай, когда отображение  в (0.1) является кусочно-гладким, т. е. оно непрерывно, и существует конечный набор гладких (в том или ином смысле; точные требования гладкости будут приводиться в каждом формулируемом ниже утверждении)  кусочных отображений Φ1,,Φspq таких, что

 ΦuΦ1u,Φsuup.

Случай s=1 соответствует гладкому отображению  Согласно [1, теорема 2.1], любое кусочно-гладкое отображение с непрерывно дифференцируемыми кусочными отображениями является локально липшицевым.

Важнейшим источником кусочно-гладких уравнений являются комплементарные системы

a(u)=0,b(u)0,c(u)0,d(u)0,c(u),d(u)=0,   (0.2)

с заданными непрерывно дифференцируемыми отображениями apl, bpm, cpr, dpr. Система (0.2) может быть эквивалентным образом записана в виде (0.1) с кусочно-гладким Φ(u)=(a(u),min{c(u),d(u)}), где минимум берется покомпонентно, и с P={up|b(u)0,c(u)0,d(u)0}, или просто с P={up|b(u)0}. Ограничения, задающие  можно заменить простыми, а именно, условиями неотрицательности на дополнительные переменные («слэки»; детали см., например, в [2]).

Для каждого up определим множество

A(u)={j{1,,s}|Φ(u)=Φj(u)}    (0.3)

индексов кусочных отображений  активных в точке u. Пусть Gpq×p — любое отображение, удовлетворяющее

G(u){(Φj)'(u)|jA(u)}up.   (0.4)

Кусочные ньютоновские методы — это общее название для класса алгоритмов, каждая итерация которого в текущем приближении uk состоит в осуществлении итерации соответствующего ньютоновского метода для гладкого уравнения с ограничением

Φj(u)=0,uP,   (0.5)

для некоторого jA(uk). Разумеется, индекс j на разных итерациях может быть разным. Иными словами, это ньютоновский метод, в котором (вообще говоря не существующая) производная Φ'(uk) заменяется ее кусочным «суррогатом» G(uk).

Ключевую роль в анализе глобальной сходимости ниже будет играть следующее предположение, которое уже появлялось в [3, (4.8)], [4, (32)]:

Φ(u)Φj(u)j{1,,s}uP.   (0.6)

Для определенности здесь и далее будем считать, что используется евклидова норма.

В этой связи заметим, что ограничения c(u)0 и d(u)0 в определении P для переформулировки комплементарной системы (0.2) могут показаться излишними: если их опустить, то множество решений соответствующей задачи (0.1) не изменится. Однако, как легко видеть, именно наличие этих ограничений обеспечивает выполнение в данном случае условия (0.6); см. примеры 1.1 и 1.2 ниже, а также обсуждения этого вопроса в [2–4].

1.   Кусочный метод Ньютона

В этом разделе будем рассматривать случай, когда число уравнений равно числу переменных, и ограничений нет: пусть p=q и P=p. Для текущего приближения ukp итерация  кусочного метода Ньютона генерирует следующее приближение как uk+vk, где vk определяется как решение линейного уравнения

Φ(uk)+G(uk)v=0,   (1.1)

а G задается соотношениями (0.3) и (0.4). Иными словами, vk является решением линейного уравнения

Φj(uk)+(Φj)'(uk)v=0   (1.2)

с некоторым jA(uk), а такая итерация есть итерация базового метода Ньютона для соответствующего гладкого уравнения в (0.5).

Для функции φjp,

φj(u)=12Φj(u)2,   (1.3)

имеет место 

φj'(uk)=((Φj)'(uk))Φj(uk),   (1.4)

и поэтому 

φj'(uk),vk=((Φj)'(uk))Φj(uk),vk=Φj(uk),(Φj)'(uk)vk=Φj(uk)2,   (1.5)

где последнее равенство следует из (1.2). Отсюда получаем, что vk является направлением убывания для функции φj в точке uk, если только Φj(uk)=Φ(uk)=0, т. е. если текущее приближение uk не является решением уравнения в (0.1). Это соображение служит основанием для использования одномерного поиска по направлению vk с целью глобализации сходимости кусочного метода Ньютона, реализованной в алгоритме 1 ниже.

Заметим, однако, что матрица G(uk) в (1.1) может оказываться вырожденной, и тогда это уравнение может не иметь решений. Более того, даже если vkсуществует, его «качество» как направления убывания может быть недостаточным для обеспечения разумных свойств глобальной сходимости такого алгоритма. В таких случаях (а именно, в тех случаях, когда направление vk оказывается «слишком длинным») алгоритм использует страховочный градиентный шаг для функции φj. Для гладких уравнений данная стратегия глобализации сходимости метода Ньютона обсуждалась в [5, разд. 5.1].

Алгоритм 1. Фиксируем параметры C>0, τ>0, ε(0,1) и ϰ (0, 1). Выбираем u0p и полагаем k=0.   

  1. Если Φ(uk)=0, стоп.
  2. Вычисляем vk как решение линейного уравнения (1.1). Если vk не удается вычислить, или vk нарушает неравенство

vkmax{C,1/Φ(uk)τ},   (1.6)

переходим к шагу 4. 

     3. Полагаем α=1. Если выполняется неравенство 

Φ(uk+αvk)(1εα)Φ(uk),   (1.7)

полагаем αk=α и переходим к шагу 6. В противном случае заменяем α на ϰα и проверяем снова неравенство (1.7) до тех пор, пока оно не выполнится, после чего полагаем αk=α и переходим к шагу 6.

     4. Полагаем α=1. Если выполняется неравенство Армихо

φj(uk+αvk)φj(uk)εαvk2,   (1.8)

полагаем αk=α. В противном случае заменяем α на ϰα и проверяем снова неравенство (1.8) до тех пор, пока оно не выполнится, после чего полагаем αk=α.

     5. Полагаем uk+1=uk+αkvk, увеличиваем k на  и переходим к шагу 1.

Если заменить Φ в (1.7) на Φj для jA(uk) такого, что G(uk)=(Φj)'(uk) (что при выполнении (0.6) дает неравенство, из которого следует (1.7)), то, согласно (1.3) и (1.4), получим

φj(uk+αvk)(1εα)2φj(uk)=φj(uk)εαΦj(uk)2+12α2Φj(uk)2

=φj(uk)εαφj'(uk),vk+12α2Φ(uk)2,

что автоматически выполняется в случае выполнения соответствующей формы неравенства Армихо

φj(uk+αvk)φj(uk)+εαφj'(uk),vk.   (1.9)

Иными словами, в п. 3 алгоритма 1 вместо (1.7) можно было бы, как и в п. 5, использовать неравенство Армихо (1.9) для φj, но это приводило бы, вообще говоря, к более ограничительному требованию на параметр длины шага αk.

Теорема 1.1. Пусть Φ:pp — кусочно-гладкое отображение с непрерывно дифференцируемыми кусочными отображениями Φ1,,Φs. Пусть для P=p выполняется предположение (0.6). Пусть G:pp×p — любое отображение, удовлетворяющее (0.4).

Тогда алгоритм 1 либо останавливается в точке uk, удовлетворяющей

((Φj)'(uk))Φ(uk)=0   (1.10)

по крайней мере для одного jA(uk), либо генерирует бесконечную последовательность {uk}, любая предельная точка  которой удовлетворяет

((Φj)'(u¯))Φ(u¯)=0   (1.11)

по крайней мере для одного jA(u¯).

Доказательство. Согласно (1.4), алгоритм может остановиться на некоторой итерации k, только если либо uk удовлетворяет Φ(uk)=0, либо выполняется (1.10) для некоторого jA(uk), причем в первом случае, согласно (0.3), Φj(uk)=Φ(uk)=0, и равенство (1.10) тоже выполняется (для любого jA(uk)).

Вместе с тем, если (1.10) не выполняется для jA(uk) такого, что G(uk)=(Φj)'(uk), то при любом выборе vk в алгоритме 1, из (1.5) следует, что φj'(uk),vk<0. Но тогда, с учетом обсуждения перед формулировкой теоремы, стандартным образом получаем (см., например, [6, лемма 3.1.2]), что подходящее значение αk>0 в п. 3 или 5 алгоритма будет найдено после конечного числа дроблений (умножений текущего α на ϰ), а значит, алгоритм успешно определит uk+1.

Пусть теперь (1.10) не выполняется для jA(uk) такого, что G(uk)=(Φj)'(uk), ни для какого k, а значит, алгоритм генерирует бесконечную последовательность {uk}. Для любой предельной точки u¯ этой последовательности, в силу включения A(u)A(u¯) для всех up достаточно близких к u¯, и в силу конечности множества A(u¯), a также с учетом (0.4), найдется сходящаяся к u¯ подпоследовательность {uki} такая, что G(uki)=(Φj)'(uki) для всех i, для некоторого фиксированного jA(u¯).

Если бесконечную подпоследовательность uki выше можно выбрать так, что ньютоновское направление принимается на шаге 2 алгоритма для любого i,то дальнейшее рассуждение повторяет доказательство в [7, теорема 3.1] применительно к Φj (вместо Φ).

Остается рассмотреть случай, когда ньютоновское направление не принимается на шаге 2 алгоритма в точках подпоследовательности {uki} ни для какого i. Заметим, что в силу (0.6) и (1.7), (1.8), для всякого  выполняется

φj(uki)φj(uki+1)12Φ(uki+1)212Φ(uki+2)2

12Φ(uki+1)2=φj(uki+1)φj(uki+1+1),   (1.12)

т. е. последовательность {φj(uki),φj(uki+1),} монотонно невозрастает. При этом подпоследовательность {φj(uki+1)} этой последовательности  сгенерирована градиентными шагами с использованием правила Армихо. Тогда, согласно [8, теорема 1.16], любая предельная точка последовательности {uki}, т.е. u¯, удовлетворяет φj'(u¯)=0, что, согласно (0.3) и (1.4), и есть (1.11).

Теорема 1.2. Пусть Φ:pp — кусочно-гладкое отображение с дифференцируемыми вблизи точки u¯p кусочными отображениями Φ1,,Φs, причем производные Φj, jA(u¯), непрерывны в этой точке. Пусть u¯ является решением уравнения в (0.1), причем матрицы Якоби (Φj)'(u¯) невырождены для всех jA(u¯). Пусть G:pp×p — любое отображение, удовлетворяющее (0.4).

Тогда, если алгоритм 1 генерирует приближение достаточно близкое к u¯, то либо он останавливается с uk=u¯, либо генерирует бесконечную последовательность {uk}, которая сходится к u¯ сверхлинейно. Если производные Φj, jA(u¯), удовлетворяют условию Липшица относительно u¯, то скорость сходимости квадратичная.

Доказательство. При достаточной близости uk к u¯, с учетом включения A(uk)A(u¯) и (0.4), и невырожденности (Φj)'(u¯) для всех jA(u¯) из стандартных результатов о локальной сверхлинейной сходимости метода Ньютона (например [5, теорема 2.2]) для уравнения в (0.5), и из конечности множества A(u¯),вытекает существование и единственность vk, удовлетворяющего (1.1), причем

uk+vku¯=o(uku¯)   (1.13)

при uku¯. Очевидным последствием этого является то, что при достаточной близости uk к u¯ направление vk принимается тестом (1.6) на шаге 2 алгоритма 1.

Далее, из [5, предложение 1.32] и (Φj)'(u¯) для всех jA(u¯) вытекает оценка

uku¯=O(Φj(uk))

при uku¯, для всех таких j. Из этой оценки, из включения AukAu¯ и (0.3), с учетом локальной липшицевости Φ и (1.13) вытекает, что при любом выборе jA(uk)

  Φ(uk+vk)=Φ(uk+vk)Φ(u¯)=O(uk+vku¯)=o(uku¯)

=o(Φj(uk))=o(Φ(uk))  (1.14)

при uku¯. Отсюда следует, что при достаточной близости uk к u¯ имеет место 

Φ(uk+vk)(1ε)Φ(uk),

т. е. α=1 принимается тестом (1.7) на шаге 3 алгоритма 1.

Таким образом, итерация алгоритма 1 в этом случае принимает вид итерации базового метода Ньютона для уравнения в (0.5) с соответствующим jA(uk)A(u¯), и утверждение о сверхлинейной сходимости {uk} к  вытекает из (1.13). Детали см. в [5, теорема 2.2], где также приводится доказательство квадратичной скорости сходимости в случае липшицевости производных относительно  которое легко распространяется на рассматриваемый здесь кусочно-гладкий случай, опять же с использованием конечности A(u¯).

 

Рис. 1. Пример 1.1

 

Роль предположения (0.6) в этом анализе демонстрируется следующим простым примером: в случаях, когда A(uk) не является одноточечным, при нарушении (0.6) направления кусочного метода Ньютона могут не быть направлениями убывания для функции Φ() в точке uk.

 Пример 1.1. Рассмотрим нелинейную комплементарную задачу

u0,F(u)0,u,F(u)=0,   (1.15)

с отображением F:pp. Эта задача является частным случаем (0.2) при l=m=0, r=p, c(u)=u, d(u)=F(u). Эквивалентной переформулировкой (1.15) является (0.1) с кусочно-гладким Φ(u)=min{u,F(u)}, где можно взять P=p.

Пусть, например, p=1, F(u)=u2. Тогда естественные соответствующие кусочные отображения имеют вид Φ1(u)=u и Φ2(u)=u2 (см. графики на рис. 1a). В точке uk=1, которая не является решением (у задачи (1.15) с указанным F вообще нет решений), выполняется A(uk)={1,2}. Если удовлетворяющее (0.4) отображение G: выбрано так, что G(uk)=(Φ1)'(uk)=1, то уравнение (1.1) принимает вид 1+v=0, т. е. vk=1. Тогда для любого α>0

    |Φ(uk+αvk)|=|min{1+α,1α2}|=|min{1+α,1α}|

=|1α|=1+α>1=|Φ(uk)|.   

Аналогично, если G(uk)=(Φ2)'(uk)=1, то уравнение (1.1) принимает вид 1v=0, т. е. vk=1, и для любого α>0

    |Φ(uk+αvk)|=|min{1α,1+α2}|=|min{1α,1+α}|

=|1α|=1+α>1=|Φ(uk)|.   

Таким образом, при любом допустимом выборе G(uk) направление vk не является направлением убывания для |Φ()| в точке uk, и, в частности, (1.7) не выполняется ни для какого α>0.

Объяснение этого эффекта состоит в нарушении (0.6): если, например, u>1, то

 |Φ1(u)|=|u|<u+2=|u2|=|Φ(u)|,

а для u<1 аналогичное неравенство выполняется с Φ2 вместо Φ1.

Заметим, что здесь uk=F(uk)=1<0: в точках u0, в которых F(u)0, неравенство из (0.6) для кусочно-гладкого Φ из указанной переформулировки задачи (1.15) выполняется автоматически. См. обсуждение роли множества P для выполнения (0.6) в конце введения.

Поскольку множество точек ukp, в которых A(uk) содержит более одного индекса, обычно является тощим, то может возникнуть впечатление, что даже при нарушении (0.6) указанный эффект не должен создавать практических проблем: алгоритм не может сделать шаг только из таких точек uk,попадание в которые является нетипичным исходом. Однако, это не так: для задачи из примера 1.1 из любого начального приближения алгоритм 1 сходится к точке u¯=1 (обычно попадает точно в нее за один или два шага), выбраться из которой уже не может по причинам, указанным в этом примере. Несмотря на то, что в этой точке u¯ (1.11) не выполняется ни для одного jA(u¯)={1,2}, такой исход можно рассматривать как благоприятный, поскольку  минимизирует невязку задачи (см. рис. 1a). Как показывает следующий пример, из широких областей начальных точек алгоритм 1 может генерировать бесконечные последовательности,  сходящиеся к таким проблемным тощим множествам все более короткими шагами, и в итоге «застревающие» вблизи таких множеств, что в итоге приводит к неудачным запускам для практических реализаций алгоритма, причем предельные точки могут не быть точками минимума невязки.

Пример 1.2. Рассмотрим нелинейную комплементарную задачу (1.15) из [9, пример 6.1], с отображением F:22, F(u)=((u11)2,u1+u2+u221), и ее эквивалентную переформулировку (0.1) с Φ(u)=min{u,F(u)} и P=2.

На рис. 2–4 синими точками показаны два решения (0,(51)/2) и  данной задачи, а синие линии являются линиями уровня функции Φ(). Красные линии соответствуют границам между областями активности разных гладких кусочных отображений, и, в частности, состоят из точек u2, в которых A(u) содержит более одного индекса.

 

Рис. 2. Пример 1.2: начальные точки, порождающие неудачные запуски

 

Запуск алгоритма 1 объявлялся неудачным в случаях, когда на шаге 3 алгоритма реализовывалось неравенство αvk1012. Рис. 2, 3 демонстрируют начальные точки (которые выбирались случайным образом в области, изображенной на этих рисунках), запуски из которых были неудачыми в указанном смысле, для разных значений параметра ε в тесте (1.7). Рис. 4 содержит некоторые примеры конкретных неудачных запусков.

Причиной такого поведения является существование точек uP=2, в которых нарушаются какие-то из неравенств u10, u20, u1+u2+u2210, что приводит к невыполнению (0.6). Например, для естественных кусочных отображений Φ1(u)=(u1,u2) и Φ2(u)=(u1,u1+u2+u221) в точках u=(1tt2,t)при t<0 имеем: Φ1(u)=(1tt2,t), Φ2(u)=(1tt2,0), причем если t4+2t3+2t2+t>1, то Φ(u)=Φ1(u), и при этом Φ2(u)<Φ(u).

 

Рис. 3. Пример 1.2: начальные точки, порождающие неудачные запуски

 

Рис. 4. Пример 1.2: некоторые неудачные запуски

 

Ситуация в примере 1.2 не сохраняется, если заменить Φ в (1.7) на Φj, или заменить (1.7) на (1.9), для jA(uk) такого, что G(uk)=(Φj)'(uk). Заметим, однако, что при нарушении (0.6) эти модификации не гарантируют выполнение (1.7), и при этом на них не распространяется приведенное в теореме 1.1 обоснование глобальной сходимости. Для задачи из примера 1.1 последовательность алгоритма с заменой Φ в (1.7) на Φj «скачет» между точками 0 и -2 где первая является нулем Φ1 и, соответственно, минимизирует φ1, а вторая является нулем Φ2 и φ2, но Φ1 не является активным в точке 0, а Φ2 — в точке -2 (см. рис. 1). Алгоритм с заменой (1.7) на (1.9) ведет себя аналогично, но также периодически «посещает» и точку -1.

2. Кусочный метод Гаусса–Ньютона

Возвращаясь к общей постановке задачи (0.1), для текущего приближения ukP кусочный метод Гаусса–Ньютона (с ограничением) генерирует следующее приближение как uk+vk, где vk минимизирует невязку (в квадрате) «линеаризованного» уравнения из (0.1) на Puk, а именно, vkопределяется как решение задачи оптимизации 

12Φ(uk)+G(uk)v2min,uk+vP,   (2.1)

где G задается соотношениями (0.3) и (0.4). Целевая функция в (2.1) является выпуклой квадратичной функцией, и, согласно теореме Фрэнка–Вулфа [10], эта подзадача всегда имеет решение в случае полиэдрального P, но решение может быть не единственным. Учитывая определение G, подзадача (2.1) может быть записана в виде

12Φj(uk)+(Φj)'(uk)v2min,uk+vP,

с некоторым jA(uk), т. е. итерация такого метода есть итерация метода Гаусса–Ньютона для соответствующего гладкого уравнения с ограничением (0.5).

Следующий алгоритм реализует гибридную глобализацию сходимости кусочного метода Гаусса–Ньютона, основанную на объединении этого алгоритма в качестве локальной фазы с методом проекции градиента в качестве глобальной фазы, в духе [11, алгоритм 2.12] для метода Левенберга–Марквардта. Пусть P выпукло, и через πP(u) обозначается проекция точки up на P.

Алгоритм 2. Фиксируем параметры ρ(0,1), α^>0, ε(0,1) и ϰ (0,1) Выбираем u0P и полагаем k=0. 

  1. Если Φ(uk)=0, стоп.
  2. Вычисляем vk как некоторое решение задачи (2.1). Если vk не удается вычислить, переходим к шагу 4.
  3. Если

Φ(uk+vk)ρΦ(uk),  (2.2)

 полагаем uk+1=uk+vk, увеличиваем к на 1 и переходим к шагу 1.

  1. Для jA(uk) такого, что G(uk)=(Φj)'(uk) (см. (0.4)), полагаем vk=φj'(uk), где функция φj определена в (1.3) (см. (1.4)). Если πP(ukα^vk)=uk, стоп.
  2. Полагаем α=α^. Если выполняется неравенство Армихо

φj(πP(ukαvk))φj(uk)+εφj'(uk),πP(ukαvk)uk,  (2.3)

 полагаем αk=α. В противном случае заменяем α на ϰα и проверяем снова неравенство (2.3) до тех пор, пока оно не выполнится, после чего полагаем αk=α.

  1. Полагаем uk+1=πP(ukαkvk), увеличиваем к на 1 и переходим к шагу 1.

Следующий результат обобщает [8, теорема 1.16] (оно же [12, предложение 1.2.6] с градиентных методов безусловной оптимизации на методы проекции градиента. Его обоснование получается по сути повторением доказательства в [12, предложение 2.3.3 (b)] для соответствующей подпоследовательности.

Предложение 2.1. Пусть Pp — замкнутое выпуклое множество, а φ:p — непрерывно дифференцируемая на Р функция. Пусть последовательность {uk}p такова, что для некоторой ее бесконечной подпоследовательности {uki}P последовательность {φ(uki),φ(uki+1),} монотонно невозрастает. Пусть, кроме того, α^>0, ε(0,1) и ϰ (0,1) фиксированы, и для каждого i точка uki+1 получена шагом метода проекции градиента с выбором параметра длины шага по правилу Армихо, а именно, uki+1=πP(ukiαkiφ'(uki)), где αki есть α=ϰrα^ с минимальным r{0,1,}, для которого выполняется

φ(πP(ukiαφ'(uki)))φ(uki)+εφ'(uki),πP(ukiαφ'(uki))uki.

Тогда любая предельная точка u¯ подпоследовательности {uki} стационарна в задаче оптимизации

φ(u)min,uP,

т. е. u¯P и

φ'(u¯),   uu¯0uP,

что равносильно выполнению равенства 

πP(u¯tφ'(u¯))=u¯

для некоторого t>0, а значит и для любого t>0.

Теорема 2.1. Пусть Φ:pp — кусочно-гладкое отображение с непрерывнодифференцируемыми кусочными отображениями Φ1,,Φs. Пусть для Pp —выпуклое замкнутое множество, причем выполняется предположение (0.6). Пусть G:pq×p — любое отображение, удовлетворяющее (0.4).

Тогда алгоритм 2 либо останавливается в точке ukP, удовлетворяющей

((Φj)'(uk))Φ(uk),uuk0uP    (2.4)

 по крайней мере для одного jA(uk), либо генерирует бесконечную последовательность {uk}, любая предельная точка u¯ которой лежит в Р и удовлетворяет

((Φj)'(u¯))Φ(u¯),uu¯0uP   (2,5)

по крайней мере для одного jA(u¯).

Доказательство. Согласно (1.4), алгоритм может остановиться на некоторой итерации к только если либо ukP удовлетворяет Φ(uk)=0, либо выполняется (2.4) для некоторого jA(uk), причем в первом случае, согласно (0.3), Φj(uk)=Φ(uk)=0, и (2.4) тоже выполняется (как равенство, для любого jA(uk)).

Вместе с тем, если (2.4) не выполняется для jA(uk) такого, что G(uk)=(Φj)'(uk), то либо на шаге 3 алгоритма 1 принимается шаг метода Гаусса–Ньютона (т. е. для соответствующего vk выполняется (2.2)), либо, согласно [12, предложение 2.3.3 (a)], на шаге 5 алгоритма подходящее значение αk>0 будет найдено после конечного числа дроблений, а значит, алгоритм успешно определит uk+1P.

Пусть теперь (2.4) не выполняется для jA(uk) такого, что G(uk)=(Φj)'(uk), ни для какого к а значит, алгоритм генерирует бесконечную последовательность ukP. Из (0.3), (0.6) и из (2.2), (2.3) при этом вытекает монотонное невозрастание последовательности {Φ(uk)}. Но тогда, если (2.2) выполняется для бесконечного количества номеров к то эта последовательность стремится к 0 и поэтому, с учетом замкнутости Р всякая предельная точка u¯ последовательности ukP является решением (0.1), а значит, в частности, удовлетворяет (2.5) (как равенству, для любого jA(u¯)).

Остается рассмотреть случай, когда (2.2) не выполняется ни для какого достаточно большого к т. е. каждая итерация алгоритма 1, начиная с некоторой, является шагом метода проекции градиента для задачи оптимизации

φj(u)min,uP,

с некоторым jA(uk) таким, что G(uk)=(Φj)'(uk). Для любой предельной точки u¯ последовательности {uk}, в силу включения AuAu¯ для всех upдостаточно близких к u¯, и в силу конечности множества A(u¯), a также с учетом (0.4), найдется сходящаяся к u¯ подпоследовательность {uki} такая, что G(uki)=(Φj)'(uki) для всех i, для некоторого фиксированного jA(u¯).

В силу (0.6) и (2.3), поскольку последовательность {Φ(uk)} монотонно невозрастает, снова выводим цепочку неравенств (1.12), откуда следует, что последовательность {φj(uki),φj(uki+1),} монотонно невозрастает. Остается воспользоваться предложением 2.1, согласно которому u¯P и

φj'(u¯),uu¯0uP,

что, согласно (0.3) и (1.4), и есть (2.5). 

Следующая теорема устанавливает сверхлинейную скорость сходимости алгоритма 2 в случае p=q, P=p. 

Теорема 2.2. Теорема 1.2 остается справедливой, если алгоритм 1 в ней заменить на алгоритм 2.

Доказательство. Из рассуждений в доказательстве теоремы 1.2 вытекает, что в предположениях этой теоремы алгоритм 2 локально (для uk достаточно близкого к u¯) генерирует то же самое uk+1, что и алгоритм 1: в силу (1.14), тест (2.2) на шаге 3 алгоритма 2 при этом выполняется, а итерационная подзадача (2.1) кусочного метода Гаусса–Ньютона эквивалентна итерационному уравнению (1.1) кусочного метода Ньютона. Это дает требуемое.

Интересный вопрос состоит в возможности получения результатов о сверхлинейной скорости сходимости для алгоритма 2 при p=q, или при P=p. Если решения могут быть неизолированы (что естественным образом реализуется при p>q), в предположении о естественных предположениях о выполнении локальной липшицевой оценки расстояния до множества решений с этим вопросом нет полной ясности даже в случае P=p и гладкого Φ. Точнее, известные результаты о локальной квадратичной сходимости метода Гаусса–Ньютона [13] (даже при выборе единственного решения подзадачи (2.1) минимальной нормы) основаны на ограничительных формах оценок расстояния, и на требованиях на поведение сингулярных чисел производной, необходимость которых в этом анализе даже при p=q и P=p демонстрируется в [13, пример 4.5]. Результаты такого рода в случае P=p даже при p=q авторам не известны.

×

About the authors

Dmitriy I. Dorovskikh

Lomonosov Moscow State University

Author for correspondence.
Email: deamterr@gmail.com

Student, Operations Research Department

Russian Federation, 1 Leninskiye Gory, Moscow 119991

Alexey F. Izmailov

Lomonosov Moscow State University

Email: izmaf@cs.msu.ru

Doctor of Physical and Mathematical Sciences, Professor of the Operations Research Department

Russian Federation, 1 Leninskiye Gory, Moscow 119991

Evgeniy I. Uskov

Derzhavin Tambov State University

Email: euskov@cs.msu.ru

Researcher

Russian Federation, 33 Internatsionalnaya St., Tambov 392000

References

  1. W. W. Hager, “Lipschitz continuity for constrained processes”, SIAM J. on Control and Optimization, 17 (1979), 321–338.
  2. A. F. Izmailov, E. I. Uskov, Yan Zhibai, “The piecewise Levenberg–Marquardt method”, Advances in System Sciences and Applications, 2024 (to appear).
  3. A. Fischer, M. Herrich, A. F. Izmailov, M. V. Solodov, “A globally convergent LP-Newton method”, SIAM J. on Optimization, 26 (2016), 2012–2033.
  4. A. Fischer, A. F. Izmailov, M. Jelitte, “Newton-type methods near critical solutions of piecewise smooth nonlinear equations”, Computational Optimization and Applications, 80 (2021), 587–615.
  5. A. F. Izmailov, M. V. Solodov, Newton-Type Methods for Optimization and Variational Problems, Springer Series in Operations Research and Financial Engineering, Springer, Cham, 2014.
  6. А. Ф. Измаилов, М. В. Солодов, Численные методы оптимизации, 2-е изд., перераб. и доп., Физматлит, М., 2008 [A. F. Izmailov, M. V. Solodov, Numerical Optimization Methods, 2nd ed., revised. and additional, Fizmatlit, Moscow, 2008 (In Russian)].
  7. A. Fischer, A. F. Izmailov, M. V. Solodov, “Accelerating convergence of the globalized Newton method to critical solutions of nonlinear equations”, Computational Optimization and Applications, 78 (2021), 273–286.
  8. Д. Бертсекас, Условная оптимизация и методы множителей Лагранжа, Радио и связь, М., 1987; англ. пер.: D. P. Bertsekas, Constrained Optimization and Lagrange Multiplier Methods, Athena, Belmont, 1996.
  9. A. N. Daryina, A. F. Izmailov, M. V. Solodov, “A class of active-set newton methods for mixed complementarity problems”, SIAM J. on Optimization, 15 (2004), 409–429.
  10. M. Frank, P. Wolfe, “An algorithm for quadratic programming”, Naval Research Logistics Quarterly, 3 (1956), 95–110.
  11. C. Kanzow, N. Yamashita, M. Fukushima, “Levenberg–Marquardt methods with strong local convergence properties for solving nonlinear equations with convex constraints”, J. of Computational and Applied Mathematics, 172 (2004), 375–397.
  12. D. P. Bertsekas, “Nonlinear Programming, 2nd ed., Athena, Belmont, 1999.
  13. R. Behling, The Method and the Trajectory of Levenberg–Marquardt, PhD Thesis, IMPA — Instituto Nacional de Matemática Pura e Aplicada, Rio de Janeiro, Brazil https://impa.br/wp-content/uploads/2017/08/tese_dout_roger_behling.pdf, 2011.

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Figure 1. Example 1.1.

Download (23KB)
3. Fig. 2. Example 1.2: initial points generating failed launches

Download (60KB)
4. Fig. 3. Example 1.2: initial points generating failed launches

Download (41KB)
5. Fig. 4. Example 1.2: some failed launches

Download (43KB)


Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».