Architecture of modern neural translation systems and polysemous words: comparative analysis of foreign and domestic systems
- Authors: Koev S.Y.1
-
Affiliations:
- Moscow State Linguistic University
- Issue: Vol 5, No 12 (2025)
- Pages: 150-156
- Section: ARTICLES
- URL: https://ogarev-online.ru/2782-5329/article/view/374557
- ID: 374557
Cite item
Abstract
neural machine translation tools are continually evolving, demonstrating both technological and methodological advances. This article presents a comparative analysis of state-of-the-art architectures of leading domestic and international translation systems focusing on lexical disambiguation. It examines the implementation of modern neural models, optimization of their structural components, and improvements in translation accuracy on complex examples involving polysemous words. Special attention is given to differences in contextual processing and approaches to enhancing source text interpretation quality while minimizing errors. The analysis identifies key strengths and weaknesses of each architecture type, enabling recommendations for the future development of automatic translators. This article targets researchers, specialists, and practitioners working in machine translation and natural language processing.
References
- Исламов Р.С. Анализ современного системного машинного перевода типа RBMT и SMT // Филологические науки. Вопросы теории и практики. 2013. № 3. С. 69.
- Елисеева В.В. Лексикология английского языка. Санкт-Петербург, 2003. 44 c.
- Юсупова Л.Г. Роль контекста в разрешениях на полисемию // Казанская наука. 2022. № 3. С. 141 – 143.
- Воркачев С.Г., Воркачева Е.А. Полисемия, контекст и трансляция смыслов // Современные исследования социальных проблем. 2012. С. 121.
- Суцкевер И., Виньялс О., Ле К.В. Обучение последовательностям с помощью нейронных сетей // Успехи в области нейронных систем обработки информации. 2014. Т. 27.
- Багданау Д., Чо К., Бенжио Й. Нейронный машинный перевод путем совместного обучения выравниванию и переводу // Препринт arXiv arXiv:1409.0473. 2014.
- Васвани А., Шазир Н., Пармар Н., Внимание – это всё, что вам нужно. 2017. С. 18.
- Сак Х., Сениор А., Бофейс Ф. Рекуррентные архитектуры нейронных сетей на основе долговременной краткосрочной памяти для распознавания речи с большим словарным запасом // Препринт arXiv arXiv:1402.1128. 2014.
- Чжан М., Торал А. Влияние языка перевода на тестовые наборы для машинного перевода // Препринт arXiv arXiv:1906.08069. 2019.
- Робинсон Н. [и др.]. ChatGPT MT: конкурентоспособность для языков с высоким (но не низким) ресурсом // Труды Восьмой конференции по машинному переводу. 2023. С. 392 – 418.
- Эйнсли Дж. [и др.]. Gqa: Обучение обобщенных моделей преобразователей с несколькими запросами на основе многоголовочных контрольных точек // Препринт arXiv arXiv:2305.13245. 2023.
- Команда Джеммы. Джемма 2: Улучшение моделей открытого языка в практическом масштабе // Препринт arXiv arXiv:2408.00118. 2024.
- Эльшин Д. [и др.]. От общего LLM к переводу: Как мы значительно улучшаем качество перевода, используя данные человеческой оценки для тонкой настройки LLM // Материалы девятой конференции по машинному переводу. 2024. С. 247 – 252.
- Кошелев А.Д. Почему полисемия является языковой универсалией? // Слово и язык: сборник статей конференции. 2011. С. 695 – 735.
- How Google Translate Turns 134 Languages Into Math | WSJ Tech Behind // YouTube, 2024. URL: https://www.youtube.com/watch?v=OPTKlycwIkM (дата обращения: 18.11.2025).
- Recent advances in Google Translate // Google Research Blog, 2024. URL: https://research.google/blog/recent-advances-in-google-translate (дата обращения: 18.11.2025). 17.Gemma Explained: Overview of Gemma Model Family Architectures // Google Developers Blog, 2024. URL: https://developers.googleblog.com/en/gemma-explained-overview-gemma-model-family-architectures/ (дата обращения: 18.11.2025).
- Gemma Explained: What’s New in Gemma 2 // Google Developers Blog, 2024. URL: https://developers.googleblog.com/en/gemma-explained-new-in-gemma-2/ (дата обращения: 18.11.2025).
- Что стоит знать о Google GEMMA: блог-инженеры Яндекса о новой модели // Habr, 2024. URL: https://habr.com/ru/companies/yandex/articles/884416/ (дата обращения: 18.11.2025).
Supplementary files

