Эволюция производственных функций от Кобба-Дугласа до методов машинного обучения
- Авторы: Канаметова Д.А.1
-
Учреждения:
- Институт прикладной математики и автоматизации - филиал Кабардино-Балкарского научного центра Российской академии наук
- Выпуск: Том 27, № 6 (2025)
- Страницы: 117-124
- Раздел: Информатика и информационные процессы
- Статья получена: 29.01.2026
- Статья опубликована: 02.02.2026
- URL: https://ogarev-online.ru/1991-6639/article/view/378580
- DOI: https://doi.org/10.35330/1991-6639-2025-27-6-117-124
- EDN: https://elibrary.ru/LZXYWC
- ID: 378580
Цитировать
Полный текст
Аннотация
Статья посвящена сравнительному анализу классической производственной функции Кобба–Дугласа, трансцендентно-логарифмической ее спецификации и современных методов машинного обучения при моделировании производственных процессов.
Цель настоящей работы – продемонстрировать, как усложнение истинной структуры производственной функции приводит к преимуществу методов машинного обучения по качеству прогноза по сравнению с классической функцией Кобба–Дугласа, сохраняя при этом возможность экономической интерпретации посредством методов объяснимого искусственного интеллекта.
Материалы и методы исследования. На данных, включающих технологическую гетерогенность и нелинейные взаимодействия факторов, проведен вычислительный эксперимент, позволяющий объективно оценить точность различных подходов.
Результаты. Показано, что жесткая степенная форма функции Кобба–Дугласа приводит к систематическим ошибкам в условиях сложной структуры производственных отношений, тогда как Translog-модель частично компенсирует эти ограничения за счет включения взаимодействий и квадратичных элементов. Методы машинного обучения (градиентный бустинг и многослойная нейронная сеть) демонстрируют наилучшие показатели качества прогноза благодаря способности аппроксимировать нелинейные зависимости и учитывать скрытые эффекты. В работе также обсуждаются возможности интерпретации моделей машинного обучения с использованием SHAP-методов, что обеспечивает восстановление экономически значимых зависимостей и повышает доверие к результатам.
Заключение. Полученные результаты подтверждают целесообразность интеграции алгоритмов машинного обучения в современное эконометрическое моделирование производственных функций.
Об авторах
Дана Асланбиевна Канаметова
Институт прикладной математики и автоматизации - филиал Кабардино-Балкарского научного центра Российской академии наук
Автор, ответственный за переписку.
Email: danocha_999@mail.ru
ORCID iD: 0009-0000-6294-1015
SPIN-код: 6070-1196
канд. экон. наук, науч. сотр.
Россия, 360000, Россия, г. Нальчик, ул. Шортанова, 89 АСписок литературы
- Cobb C., Douglas P. Theory of production. American Economic Review. 1928. V. 18. No. 1. Pp. 139–165.
- Arrow K.J., Chenery H.B., Minhas B.S., Solow R.M. Capital-Labor substitution and economic efficiency. Review of Economics and Statistics. 1961. Vol. 43. No. 3. Pp. 225–250.
- Christensen L., Jorgenson D., Lau L. Transcendental logarithmic production frontiers. Review of Economics and Statistics. 1973. Vol. 55. No. 1. Pp. 28–45.
- Вoldini D., Grisoni F., Kuhn D. et al. Practical guidelines for the use of gradient boosting for molecular property prediction. J Cheminform. 2023. Vol. 15. P. 73. doi: 10.1186/s13321-023-00743-7
- Rizkallah L.W. Enhancing the performance of gradient boosting trees on regression problems. J Big Data. 2025. Vol. 12. No. 35. P. 35.
- Aggarwal Ch.C. Neural Networks and Deep Learning: textbook. Springer Cham, 2025. 529 p.
- Chen T., Guestrin C. XGBoost: A scalable tree boosting system. KDD 16: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Pp. 785–794. doi: 10.1145/2939672.2939785
- Ke G., Meng Q., Finley T. et al. LightGBM: Highly efficient gradient boosting decision tree. Advances in Neural Information Processing Systems. 2017.
- Tolstikhin I., Houlsby M., Kolesnikov A. et al. MLP-Mixer: An all-MLP architecture for vision. Neural Information Processing Systems. 2021. arXiv:2105.01601v4
- Lundberg S., Lee S.I. A unified approach to interpreting model predictions. Conference: NIPS. 2017. doi: 10.48550/arXiv.1705.07874
- Tulio M., Singh S., Guastrin C. “Why should I trust you?”: Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016. doi: 10.1145/2939672.2939778
Дополнительные файлы



