Унифицированный анализ методов решения вариационных неравенств: редукция дисперсии, сэмплирование, квантизация и покомпонентный спуск

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Предлагается унифицированный анализ методов для такого широкого класса задач, как вариационные неравенства, который в качестве частных случаев включает в себя задачи минимизации и задачи нахождения седловой точки. Предлагаемый анализ развивается на основе экстраградиентного метода, являющегося стандартным для решения вариационных неравенств. Рассматриваются монотонный и сильно монотонный случаи, которые соответствуют выпукло-вогнутым и сильно-выпукло-сильно-вогнутым задачам нахождения седловой точки. Теоретический анализ основан на параметризованных предположениях для итераций экстраградиентного метода. Следовательно, он может служить прочной основой для объединения уже существующих методов различных типов, а также для создания новых алгоритмов. В частности, чтобы показать это, мы разрабатываем некоторые новые надежные методы, в том числе метод с квантизацией, покомпонентный метод, распределенные рандомизированные локальные методы и др. Большинство из упомянутых подходов прежде никогда не рассматривались в общности вариационных неравенств и применялись лишь для задач минимизации. Стабильность новых методов подтверждается предоставляемыми численными экспериментами по обучению моделей GAN. Библ. 35. Фиг. 3. Табл. 1.

Об авторах

А. Н. Безносиков

Московский физико-технический институт (национальный исследовательский университет)

Email: gasnikov@yandex.ru
Россия, 141701, М.о., Долгопрудный, Институтский пер., 9

А. В. Гасников

Московский физико-технический институт (национальный исследовательский университет);
Институт проблем передачи информации им. А.А. Харкевича; Кавказский математический центр
Адыгейского государственного университета

Email: gasnikov@yandex.ru
Россия, 141701, М.о., Долгопрудный, Институтский пер., 9; Россия, 127051, Москва, Большой Каретный пер., 19, стр. 1; Россия, 385000, Республика Адыгея, Майкоп, ул. Первомайская, 208

К. Э. Зайнуллина

Московский физико-технический институт (национальный исследовательский университет)

Email: gasnikov@yandex.ru
Россия, 141701, М.о., Долгопрудный, Институтский пер., 9

А. Ю. Масловский

Московский физико-технический институт (национальный исследовательский университет)

Email: gasnikov@yandex.ru
Россия, 141701, М.о., Долгопрудный, Институтский пер., 9

Д. А. Пасечнюк

Московский физико-технический институт (национальный исследовательский университет);
Институт проблем передачи информации им. А.А. Харкевича

Автор, ответственный за переписку.
Email: gasnikov@yandex.ru
Россия, 141701, М.о., Долгопрудный, Институтский пер., 9; Россия, 127051, Москва, Большой Каретный пер., 19, стр. 1

Список литературы

  1. Facchinei F., Pang J. Finite-Dimensional Variational Inequalities and Complementarity Problems. Springer New York, 2007. (Springer Series in Operations Research and Financial Engineering). URL: https://books.google.ru/books?id=lX%5C_7Rce3%5C_Q0C.
  2. Nesterov Y. Smooth minimization of non-smooth functions // Math. Program. 2005. T. 103. № 1. C. 127–152.
  3. Nemirovski A. Prox-method with rate of convergence O (1/t) for variational inequalities with Lipschitz continuous monotone operators and smooth convex-concave saddle point problems // SIAM J. Optimizat. 2004. V. 15. № 1. P. 229–251.
  4. Chambolle A., Pock T. A first-order primal-dual algorithm for convex problems with applications to imaging // J. Math. Imag. and Vis. 2011. V. 40. № 1. P. 120–145.
  5. Esser E., Zhang X., Chan T.F. A general framework for a class of first order primal-dual algorithms for convex optimization in imaging science // SIAM J. Imag. Sci. 2010. V. 3. № 4. P. 1015–1046.
  6. Generative Adversarial Networks / I.J. Goodfellow [и дp.]. 2014. arXiv: 1406.2661[stat.ML].
  7. Hanzely F., Richtárik P. Federated learning of a mixture of global and local models // arXiv preprint a-rXiv:2002.05516. 2020.
  8. Lower bounds and optimal algorithms for personalized federated learning / F. Hanzely [и дp.] // arXiv preprint arXiv:2010.02372. 2020.
  9. Korpelevich G.M. The extragradient method for finding saddle points and other problems // Ekonomika i Matematicheskie Metody. 1976. V. 12. № 4. P. 747–756.
  10. Juditsky A., Nemirovski A., Tauvel C. Solving variational inequalities with stochastic mirror-prox algorithm // Stochastic System. 2011. V. 1. № 1. P. 17–58.
  11. Alacaoglu A., Malitsky Y. Stochastic Variance Reduction for Variational Inequality Methods // arXiv preprint arXiv:2102.08352. 2021.
  12. Robbins H., Monro S. A Stochastic Approximation Method // Ann. Math. Statistic. 1951. V. 22. № 3. P. 400–407. URL: https://doi.org/10.1214/aoms/1177729586
  13. Johnson R., Zhang T. Accelerating stochastic gradient descent using predictive variance reduction // Adv. Neural Informat. Processing System. 2013. V. 26. P. 315–323.
  14. QSGD: Communication-efficient SGD via gradient quantization and encoding / D. Alistarh [и дp.] // Adv. Neural Informat. Processing System. 2017. P. 1709–1720.
  15. Hanzely F., Mishchenko K., Richtarik P. SEGA: Variance reduction via gradient sketching // arXiv preprint a-rXiv:1809.03054. 2018.
  16. Gorbunov E., Hanzely F., Richtarik P. A unified theory of SGD: Variance reduction, sampling, quantization and coordinate descent // Internat. Conf. Artific. Intelligence and Statistic. PMLR. 2020. P. 680–690.
  17. On the convergence of single-call stochastic extra-gradient methods / Y.-G. Hsieh [и дp.]. 2019. arXiv: 1908.08465 [math.OC].
  18. Revisiting stochastic extragradient / K. Mishchenko [и дp.] // Internat. Conf. Artific. Intelligence and Statistic. PMLR. 2020. P. 4573–4582.
  19. Tseng P. A Modified Forward-Backward Splitting Method for Maximal Monotone Mappings // SIAM J. Control and Optimizat. 2000. V. 38. № 2. P. 431–446. https://doi.org/10.1137/S0363012998338806
  20. Nesterov Y. Dual extrapolation and its applications to solving variational inequalities and related problems // Math. Program. 2007. V. 109. № 2. P. 319–344.
  21. Palaniappan B., Bach F. Stochastic Variance Reduction Methods for Saddle- Point Problems // Adv. Neural Informat. Processing System. Т. 29 / Под ред. D. Lee [и др.]. Curran Associates, Inc., 2016. URL: https://proceedings.neurips.cc/paper/2016/file/1aa48fc4880bb0c9b8aPaper.pdf.
  22. Reducing noise in gan training with variance reduced extragradient / T. Chavdarova [и дp.] // arXiv preprint arXiv:1904.08598. 2019.
  23. Sidford A., Tian K. Coordinate methods for accelerating regression and faster approximate maximum flow // 2018 IEEE 59th Ann. Symp. Foundat. of Comput. Sci. (FOCS). IEEE. 2018. P. 922– 933.
  24. Coordinate methods for matrix games / Y. Carmon [и дp.] // arXiv preprint arXiv:2009.08447. 2020.
  25. Zeroth-Order Algorithms for Smooth Saddle-Point Problems / A. Sadiev [и дp.] // arXiv preprint ar-Xiv:2009.09908. 2020.
  26. Deng Y., Mahdavi M. Local Stochastic Gradient Descent Ascent: Convergence Analysis and Communication Efficiency // Internat. Conf. Artific. Intelligence and Statistic. PMLR. 2021. P. 1387–1395.
  27. Beznosikov A., Samokhin V., Gasnikov A. Distributed Saddle-Point Problems: Lower Bounds, Optimal Algorithms and Federated GANs // arXiv preprint arXiv:2010.13112. 2021.
  28. Stich S.U. Unified optimal analysis of the (stochastic) gradient method // arXiv preprint arXiv:1907.04232. 2019.
  29. Wright S.J. Coordinate descent algorithms // Math. Program. 2015. V. 151. № 1. C. 3–34.
  30. Nesterov Y. Efficiency of coordinate descent methods on huge-scale optimization problems // SIAM J. Optimizat. 2012. V. 22. № 2. P. 341–362.
  31. On Biased Compression for Distributed Learning / A. Beznosikov [и дp.] arXiv preprint arXiv:2002.12410. 2020.
  32. Barratt S., Sharma R. A note on the inception score // arXiv preprint arXiv:1801.01973. 2018.
  33. Radford A., Metz L., Chintala S. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. 2016. arXiv: 1511.06434 [cs.LG].
  34. Mirza M., Osindero S. Conditional generative adversarial nets // arXiv preprint arXiv:1411.1784. 2014.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2.

Скачать (322KB)
3.

4.

Скачать (98KB)

© А.Н. Безносиков, А.В. Гасников, К.Э. Зайнуллина, А.Ю. Масловский, Д.А. Пасечнюк, 2023

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».