Робастная модификация PSO на основе M-средних для решения задач линейной регрессии
- Авторы: Казакова Е.М.1
-
Учреждения:
- Институт прикладной математики и автоматизации - филиал Кабардино-Балкарского научного центра Российской академии наук
- Выпуск: Том 27, № 6 (2025)
- Страницы: 109-116
- Раздел: Информатика и информационные процессы
- Статья получена: 29.01.2026
- Статья опубликована: 02.02.2026
- URL: https://ogarev-online.ru/1991-6639/article/view/378618
- DOI: https://doi.org/10.35330/1991-6639-2025-27-6-109-116
- EDN: https://elibrary.ru/JCQKPI
- ID: 378618
Цитировать
Полный текст
Аннотация
Линейная регрессия остается одним из базовых инструментов анализа данных, однако ее устойчивость резко снижается в присутствии выбросов и шумов, что приводит к искажению коэффициентов и снижению качества прогноза. Классические эвристические алгоритмы оптимизации, такие как Particle Swarm Optimization (PSO) и Jaya, показывают хорошие результаты на гладких функциях потерь, но оказываются чувствительными к выбросам при применении стандартной среднеквадратичной ошибки (MSE). Это создает потребность в разработке простых, но робастных модификаций, которые сохраняли бы глобальные поисковые свойства, не усложняя структуру базового алгоритма.
Цель исследования. Разработать и экспериментально оценить робастную модификацию PSO (PSO-Robust), обеспечивающую устойчивость линейной регрессии к выбросам без усложнения основного алгоритма и без введения дополнительных гиперпараметров.
Методы исследования. Алгоритмическая идея: сохранить стандартные уравнения движения PSO; вмешательство только в функцию пригодности. Вместо среднеквадратичной функции потерь используются M-средние на базе функции Хьюбера с адаптивными весами, уменьшающими вклад выбросов. Вычислительные эксперименты на синтетических данных (15 % и 25 % выбросов) выполнены при одинаковых гиперпараметрах для всех сравниваемых алгоритмов и 30 независимых перезапусках. Оценка по средним и медианным тестовым ошибкам, а также по разбросу (дисперсия, межквартильный размах). Визуальный анализ – boxplot распределений ошибок и линии регрессии.
Результаты. PSO-Robust устойчиво превосходит классический PSO и Jaya по средним и медианным тестовым ошибкам. Наблюдается меньший разброс результатов (дисперсия). Визуальный анализ подтверждает сниженную чувствительность к выбросам (более компактные boxplot, более адекватные регрессионные линии).
Заключение. Модификация PSO-Robust демонстрирует стабильное превосходство над исходными алгоритмами по точности и устойчивости, обеспечивая более компактные boxplot и менее искаженные регрессионные линии. Предложенный подход сочетает простоту реализации с робастностью, повышая надежность регрессионных моделей в условиях неоднородных данных. Перспективы развития включают расширение метода на многомерные и нелинейные модели, а также исследование альтернативных робастных функций потерь.
Об авторах
Елена Мусовна Казакова
Институт прикладной математики и автоматизации - филиал Кабардино-Балкарского научного центра Российской академии наук
Автор, ответственный за переписку.
Email: shogenovae@inbox.ru
ORCID iD: 0000-0002-5819-9396
SPIN-код: 4135-3315
мл. науч. сотр. отдела нейроинформатики и машинного обучения
Россия, 360000, Россия, г. Нальчик, ул. Шортанова, 89 АСписок литературы
- Kennedy J., Eberhart R. Particle swarm optimization. Proc. IEEE Int. Conf. on Neural Networks (ICNN). 1995. Pp. 1942–1948. doi: 10.1109/ICNN.1995.488968
- Rao R. Jaya: A simple and new optimization algorithm for solving constrained and unconstrained optimization problems. Int. J. Indus. Eng. Comput. 2016. Vol. 1. No. 7. Pp. 19–34. doi: 10.5267/j.ijiec.2015.8.004
- Shibzukhov Z.M. On a robust gradient boosting scheme based on aggregation functions insensitive to outliers. Automation and Remote Control. 2022. Vol. 83. No. 10. Pp. 1619–1629. doi: 10.1134/S00051179220100149
- Шибзухов З. М., Димитриченко Д. П., Казаков М. А. Принцип минимизации эмпирического риска на основе агрегирующих функций средних потерь для решения задач регрессии // Программные продукты и системы. 2017. Т. 30. № 2. С. 180–186. doi: 10.15827/0236-235X.030.2.180-186
- Zeng J., Yu X., Yang G., Gui H. Dynamic robust particle swarm optimization algorithm based on hybrid strategy. International Journal of Swarm Intelligence Research (IJSIR). 2023. Vol. 14. No. 1. Pp. 1–14. doi: 10.4018/IJSIR.325006
- Garg H. A hybrid PSO–GA algorithm for constrained optimization problems. Applied Mathematics and Computation. 2016. Vol. 274. Pp. 292–305. doi: 10.1016/j.amc.2015.11.001
- Şenel F.A., Gökçe F., Yüksel A.S., Yigit T. A novel hybrid PSO–GWO algorithm for optimization problems. Engineering with Computers. 2019. Vol. 35. Pp. 1359–1373. doi: 10.1007/s00366-018-0668-5
- Kang H., Li X., Shen Yo. et al. Particle swarm optimization with historical return decay enhances cooperation in public goods games with investment risks. Chaos, Solitons & Fractals. 2024. Vol. 189. P. 115665. doi: 10.1016/j.chaos.2024.115665
- Казакова Е. М. Гибридный алгоритм PSO–Jaya для решения различных оптимизационных задач // Программная инженерия. 2024. Т. 15. № 2. С. 87–96. doi: 10.17587/prin.15.87-96
- Huber P.J. Robust Statistics: monograph. New York: Wiley, 1981. 308 p. ISBN: 0-471-41805-6
Дополнительные файлы



