Аннотация:
В статье исследуются негладкие задачи выпуклой стохастической оптимизации. С помощью техники сглаживания, базирующейся на замене значения функции в рассматриваемой точке усредненным значением функции по шару (в $l_1$-норме или $l_2$-норме) малого радиуса с центром в этой точке, исходная задача сводится к гладкой задаче (константа Липшица градиента которой обратно пропорционально радиусу шара). Важным свойством используемого сглаживания является возможность вычислять несмещенную оценку градиента сглаженной функции на основе только реализаций исходной функции. Полученную гладкую задачу стохастической оптимизации предлагается далее решать в распределенной архитектуре федеративного обучения (задача решается параллельно: узлы делают локальные шаги, например, стохастического градиентного спуска, потом коммуницируют – все со всеми, затем все это повторяется). Цель статьи – построить на базе современных достижений в области безградиентной негладкой оптимизации и в области федеративного обучения безградиентные методы решения задач негладкой стохастической оптимизации в архитектуре федеративного обучения.
Библ. 22. Фиг. 3. Табл. 1.
Ключевые слова:
безградиентные методы, методы с неточным оракулом, федеративное обучение.
Образец цитирования:
Б. А. Альашкар, А. В. Гасников, Д. М. Двинских, А. В. Лобанов, “Безградиентные методы федеративного обучения с $l_1$ и $l_2$-рандомизацией для задач негладкой выпуклой стохастической оптимизации”, Ж. вычисл. матем. и матем. физ., 63:9 (2023), 1458–1512; Comput. Math. Math. Phys., 63:9 (2023), 1600–1653
\RBibitem{AlaGasDvi23}
\by Б.~А.~Альашкар, А.~В.~Гасников, Д.~М.~Двинских, А.~В.~Лобанов
\paper Безградиентные методы федеративного обучения с $l_1$ и $l_2$-рандомизацией для задач негладкой выпуклой стохастической оптимизации
\jour Ж. вычисл. матем. и матем. физ.
\yr 2023
\vol 63
\issue 9
\pages 1458--1512
\mathnet{http://mi.mathnet.ru/zvmmf11614}
\crossref{https://doi.org/10.31857/S0044466923090028}
\elib{https://elibrary.ru/item.asp?id=54313682}
\transl
\jour Comput. Math. Math. Phys.
\yr 2023
\vol 63
\issue 9
\pages 1600--1653
\crossref{https://doi.org/10.1134/S0965542523090026}
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/zvmmf11614
https://www.mathnet.ru/rus/zvmmf/v63/i9/p1458
Эта публикация цитируется в следующих 9 статьяx:
Alexander Gasnikov, Darina Dvinskikh, Pavel Dvurechensky, Eduard Gorbunov, Aleksandr Beznosikov, Alexander Lobanov, Encyclopedia of Optimization, 2024, 1
Ekaterina Statkevich, Sofiya Bondar, Darina Dvinskikh, Alexander Gasnikov, Aleksandr Lobanov, “Gradient-free algorithm for saddle point problems under overparametrization”, Chaos, Solitons & Fractals, 185 (2024), 115048
Aleksandr Lobanov, Nail Bashirov, Alexander Gasnikov, “The “Black-Box” Optimization Problem: Zero-Order Accelerated Stochastic Method via Kernel Approximation”, J Optim Theory Appl, 2024
A. V. Gasnikov, M. S. Alkousa, A. V. Lobanov, Y. V. Dorn, F. S. Stonyakin, I. A. Kuruzov, S. R. Singh, “On Quasi-Convex Smooth Optimization Problems by a Comparison Oracle”, Rus. J. Nonlin. Dyn., 20:5 (2024), 813–825
Aleksandr Lobanov, Anton Anikin, Alexander Gasnikov, Alexander Gornov, Sergey Chukanov, Communications in Computer and Information Science, 1881, Mathematical Optimization Theory and Operations Research: Recent Trends, 2023, 92
Nikita Kornilov, Alexander Gasnikov, Pavel Dvurechensky, Darina Dvinskikh, “Gradient-free methods for non-smooth convex stochastic optimization with heavy-tailed noise on convex compact”, Comput Manag Sci, 20:1 (2023)
Aleksandr Lobanov, Lecture Notes in Computer Science, 14395, Optimization and Applications, 2023, 60
Aleksandr Lobanov, Alexander Gasnikov, Lecture Notes in Computer Science, 14395, Optimization and Applications, 2023, 72
Aleksandr Lobanov, Andrew Veprikov, Georgiy Konin, Aleksandr Beznosikov, Alexander Gasnikov, Dmitry Kovalev, “Non-smooth setting of stochastic decentralized convex optimization problem over time-varying Graphs”, Comput Manag Sci, 20:1 (2023)