Intelligent control system for evolutionary algorithms in multi-criteria optimization problems
- Authors: Baranov D.A.1, Barabanov V.F.1
-
Affiliations:
- Voronezh State Technical University
- Issue: Vol 21, No 4 (2025): Bulletin of Voronezh State Technical University
- Pages: 39-44
- Section: Informatics, computer engineering and control
- URL: https://ogarev-online.ru/1729-6501/article/view/357642
- DOI: https://doi.org/10.36622/1729-6501.2025.21.4.006
- ID: 357642
Cite item
Full Text
Abstract
this paper presents the development of an intelligent control system for evolutionary algorithms to solve multi criteria optimization problems. The core analytical method is a modified k nearest neighbors algorithm—“Analysis of Neighborhood Components”—which learns a linear transformation of the feature space and computes neighbor selection probabilities. The model was trained on normalized adjacency matrices with a synthesized dataset comprising approximately 250,000 samples and 50 evolutionary algorithm configurations (genetic, bee, ant colony, and simulated annealing). The system employs two models: a “fast” model for initial convergence and a “quality” model for deeper search. Training results show that configuration selection accuracy reaches 90 % with a monotonic decrease in loss, confirming stability and absence of overfitting. An intelligent fitness monitoring mechanism enables automatic switching between algorithms according to solution dynamics. The proposed architecture demonstrates high adaptability and scalability, requiring no manual retuning when problem dimensionality or number of criteria changes. These results pave the way for integration into autonomous resource management systems in logistics, manufacturing, telecommunications, and other domains
Full Text
Введение
Дискретные задачи оптимизации представляют собой обширный класс комбинаторных задач, в которых требуется найти наилучшее решение среди конечного множества вариантов. К ним относятся задачи маршрутизации (задача коммивояжёра), распределения (задача о назначениях, о рюкзаке), а также задачи раскраски графов, покрытия множеств и планирования. Такие задачи часто включают противоречивые цели — например, минимизацию расстояния и времени при ограничениях на ресурсы.
Эти задачи широко применяются в телекоммуникациях (оптимизация топологии сетей), производстве (распределение заказов и ресурсов), транспорте (планирование маршрутов, логистика), а также в биоинформатике и управлении потоками данных.
Высокую эффективность в решении таких задач показывают эволюционные алгоритмы за счет способности обрабатывать нелинейные функции и большие пространства поиска. Эти методы особенно ценны для дискретной оптимизации, поскольку они могут находить приближенные решения, близкие к оптимальным, даже в условиях высокой вычислительной сложности и конфликтующих целей.
Однако выбор подходящего алгоритма и его конфигурации для конкретной задачи остаётся нетривиальной проблемой: производительность методов зависит от размерности пространства поиска, особенностей ограничений и текущего состояния решения. Интеллектуализация этого процесса — автоматизация выбора и переключения между алгоритмами на основе анализа динамики решения — является актуальным направлением развития вычислительных систем.
Представленная интеллектуальная система способна анализировать постановку задачи и динамику решения, адаптивно подстраивая стратегию оптимизации. Это особенно важно в условиях переменной размерности задач и необходимости быстрого получения качественных решений в режиме реального времени.
Таким образом, разработка интеллектуальной модели управления эволюционными алгоритмами в задачах дискретной оптимизации позволяет повысить производительность вычислений и открыть возможности для автоматизации сложных процессов в различных прикладных областях.
Описание объекта исследования
Пусть дана дискретная задача оптимизации на графе согласно уравнению (1)
, | (1) |
где n – размерность задачи.
Каждой дуге сопоставлены значения функции стоимости , определяющие «цену» перехода. Необходимо найти маршрут – перестановку вершин, при которой значение функции (2) минимизируется или максимизируется в зависимости от постановки задачи
. | (2) |
Для автоматизации выбора стратегии решения вводится модель интеллектуального управления, которая:
- анализирует постановку задачи: преобразует данные в вектор признаков;
- прогнозирует оптимальную стратегию решения: , где – множество возможных конфигураций эволюционных алгоритмов, а – обученная ИИ-модель;
- запускает решение задачи с выбранным методом;
- оценивает прогресс решения (например, при нужна смена алгоритма);
- адаптивно переключает используемые алгоритм и конфигурации.
Целью интеллектуальной системы является поиск управляющего правила , при котором сокращается общее время решения задачи, а общая приспособленность достигает максимально возможных значений.
Объектом исследования является интеллектуальная модель, которая анализирует постановку задачи и текущий прогресс решения. Модель динамически выбирает наиболее подходящий эволюционный алгоритм и его конфигурацию для текущего этапа оптимизации, стремясь максимизировать улучшение общей приспособленности решений.
Объект исследования охватывает как процесс решения дискретной задачи оптимизации, так и механизм интеллектуального управления, обеспечивающий адаптивность и эффективность в условиях переменной размерности и структуры задачи.
Описание исходных данных
Для решения поставленной дискретной задачи оптимизации было выделено около 50 конфигураций следующих эволюционных алгоритмов: генетический [2, 3], пчелиный, муравьиный [4] и имитации отжига [5]. Краткое описание параметров эволюционных алгоритмов и их значений приведено в табл. 1 ниже.
Таблица 1. Описание параметров эволюционных алгоритмов и их значения
Наименование алгоритма | Диапазоны параметров |
Муравьиный | : 0,5; 1,0 0,5; 1,0 q: 10,0; 100,0; 1000,0 p: 0,01; 0,1, 0,5 Кол-во акторов: 20, 50, 100 |
Пчелиный | Доля пчел-рабочих: 0,3; 0,5; 0,7 Методы поиска: Реверс подмножества, Смена индексов Кол-во акторов 20, 50, 100 |
Генетический | Шанс мутации: 0,01; 0,05 Метод мутации: Смена индексов, Реверс подмножества Метод отбора: Турнирный, Рулетка, Лучшие N Кол-во акторов 100; 200 |
Имитации отжига | Начальная температура: 500, 1000 Конечная температура: 1 Коэффициент охлаждения: 0,8; 0,95; 0,99 Метод мутации: Смена индексов, Реверс подмножества |
В качестве признаков у обучающей выборки представлены нормализованные методом MinMax матрицы смежности. Каждому образцу соответствует метка, представляющая собой идентификационный номер конфигурации эволюционного алгоритма.
Набор данных был получен на основе вычислительного эксперимента, описанного в источнике [1]. Данные сгруппированы по постановкам задачи, выбраны те решения (и их алгоритмы), которые показали абсолютную наибольшую эффективность. В целях увеличения объема обучающей выборки набор данных был синтезирован при помощи метода SMOTE [6, 7]. В конечном итоге, для обучения представлено 245 тыс. образцов.
Методы исследования
Для обучения интеллектуальной модели выбора алгоритма использовался метод «Анализ компонентов соседства» (далее – АКС). Данный метод является модификацией метода «k-ближайших соседей». Из основных особенностей данной модификации можно выделить следующие:
- вместо использования фиксированного расстояния (например, евклидова), АКС обучает линейное отображение пространства признаков, что позволяет более эффективно различать классы;
- обучает и сохраняет значения весов, что позволяет интегрировать модель в другие системы.
Пусть существует обучающая выборка где – входной вектор признаков, – метка класса. Тогда, для установления степени «близости» между постановками, вычисляется расстояние между примерами в преобразованном пространстве согласно формуле (3)
| (3) |
где A – матрица линейного преобразования.
В отличие от классического «k-ближайших соседей», где выбирается k ближайших, АКС использует статистическую вероятность того, что объект i «выберет» j в качестве «соседа». Вероятность вычисляется в соответствии с формулой (4).
| (4) |
Таким образом, для каждого объекта i определяются вероятности , с которыми он «голосует» за другие точки j.
Целью АКС является максимизация вероятности правильной классификации. Для вычисления величины потерь вероятности суммируются как показано в формуле (5)
| (5) |
Данная функция дифференцируема по параметрам A, поэтому обучение проводится градиентным методом.
Для обучения модели использовалась реализация АКС из библиотеки Scikit-learn с рядом параметров, подобранных в ходе эмпирических экспериментов. Первым из таких параметров было количество итераций в размере 1000, что позволило избежать преждевременной остановки в «застойных» периодах обучения. В качестве инициализации матрицы преобразования использовался метод главных компонент, что обеспечило эффективное начало процесса обучения. В качестве порога точности была выбрана величина .
Для минимизации потерь использовался метод L-BFGS [8]. Выбор в пользу данного метода обусловлен стабильностью и скоростью сходимости на имеющемся объеме данных. В ряде экспериментов использовался стохастических градиентный спуск (скорость обучения 0,01), однако результаты оказались менее стабильными.
Размерность признакового пространства после линейного преобразования была ограничена значением 50. Это компромисс между сохранением достаточной информации о данных и снижением вычислительной нагрузки.
Результаты обучения
В целях повышения эффективности решения дискретной задачи было обучено две модели, первая из которых отвечает за выбор «качественного» алгоритма, а вторая – «быстрого».
На рис. 1 показана динамика точности и потерь в процессе обучения моделей. По оси X отложен номер итерационного шага, по осям Y – точность (шкала слева) и величина потерь (шкала справа). Динамика потерь на графике обозначена пунктирной линией.
На начальных этапах обучения (до 100 итерации) наблюдается стремительный рост точности до 75 %, сопровождаемый резким снижением потерь с 2,9 до 1,1. Это указывает на быструю адаптацию матрицы преобразования к структуре обучающих данных. Далее процесс обучения обретает более «плавный» вид и достигает значения около 89 %, а потери снижаются к уровню 0,5 и ниже. Таким образом, в результате обучения модели удалось достигнуть монотонной сходимости без переобучения. Это подтверждает, что выбранные гиперпараметры являются оптимальными для текущих объема и структуры данных.

Рис. 1. График точности и потерь в процессе обучения по итерациям
Принцип интеллектуального выбора алгоритмов
На рис. 2 приведена схема интеллектуального решения дискретной задачи оптимизации. В начале процесса, помимо общих процессов инициализации, с использованием «быстрой» интеллектуальной модели производится выбор алгоритма для достижения ранней сходимости.

Рис. 2. Схема интеллектуального решения дискретной задачи оптимизации
В теле основного цикла проводится анализ процесса решения следующим образом: система фиксирует номер итерационного шага, при котором было достигнуто максимальное значение приспособленности, если разница между текущим номером шага и шага с максимальной приспособленностью превышает пороговое, система, используя заранее обученные «быструю» и «качественную» интеллектуальные модели, избирает для последующей работы иную конфигурацию эволюционного алгоритма. Данный процесс продолжается до достижения одного из критериев остановки:
- достижение предельной численности итерационных шагов;
- отсутствие улучшения приспособленности на протяжении значительно большего количества шагов.
Заключение
В результате проведенного исследования разработана интеллектуальная система управления эволюционными алгоритмами для дискретных задач оптимизации. Подход на основе метода «Анализ компонентов соседства» продемонстрировал высокую точность выбора конфигураций эволюционных алгоритмов (до 90 %) без признаков переобучения. Это позволило существенно сократить число итераций, необходимых для достижения эффективных решений и повысить общую приспособленность популяции в динамике оптимизации.
Разделение выбора на «быстрые» и «качественные» обеспечивает как оперативную стартовую сходимость, так и стабильное улучшение решений. Механизм мониторинга динамики решения позволяет системе своевременно переключаться между алгоритмами, что гарантирует высокую устойчивость при изменении сложных целевых функций.
Данная система не привязана к конкретному типу дискретной задачи и легко может быть интегрирована в множество существующих процессов (например, логистика, коммутация, оптимизация состояний, планирование и т.д.).
Дальнейшие исследования могут быть сосредоточены на расширении набора рассматриваемых методов, адаптации к новым классам задач и исследовании влияния факторов неопределенности на качество прогноза выбора алгоритмов.
___________________________________
© Баранов Д.А., Барабанов В.Ф., 2025
About the authors
Dmitriy A. Baranov
Voronezh State Technical University
Author for correspondence.
Email: oblivvion333@gmail.com
graduate student
Russian Federation, 84 20-letiya Oktyabrya str., Voronezh 394006, RussiaVladimir F. Barabanov
Voronezh State Technical University
Email: bvf@list.ru
Dr. Sc. (Technical), Professor
Russian Federation, 84 20-letiya Oktyabrya str., Voronezh 394006, RussiaReferences
- Baranov D.A. “Methods for comparative analysis of evolutionary design methods in software for solving multicriteria op-timization problems”, Modeling, Optimization and Information Technology, 2025 no. 13(2), available at: https://moitvivt.ru/ru/journal/pdf?id=1854 doi: 10.26102/2310-6018/2025.49.2.008
- Wirsansky E. “Hands-On Genetic Algorithms with Python”, Packt publishing, 2020, 334 p.
- Saimon D. “Evolutionary Optimization Algorithms”, Wiley, 2013, 784 p.
- Belykh M.A., Baranov D.A. “Solving the travelling salesman problem with a variable ant algorithm”, Information Technology Modeling and Control, 2024, pp. 116-119.
- Baranov D.A. “Modification of the simulated annealing algorithm for solving a multi-criteria transport optimization problem”, Digital Systems and Models: Theory and Practice of Design, Development and Usage, 2025, pp. 757-761.
- Chawla N.V., Bowyer K.W., Hall L.O. et al. “SMOTE: Synthetic Minorify Over-sampling Technique”, Journal of Artificial Intelligence Research, 2002, no. 16, pp. 321-357.
- SMOTE in Python: A guide to balanced datasets - Train in Data's Blog, available at: https://www.blog.trainindata.com/smote-in-python-a-guide-to-balanced-datasets/ (date of access: 10.07.2025).
- BFGS Method or One of the Most Effective Optimization Methods. Example of Implementation in Python / Habr, available at: https://habr.com/ru/articles/333356/(date of access: 30.07.2025).
Supplementary files

