Тип публикации: доклад, тезисы доклада, статья из сборника материалов конференций
Конференция: V Всероссийская (национальная) научная конференция «Достижения науки и технологий» (ДНиТ-V-2026); Красноярск; Красноярск
Год издания: 2026
Идентификатор DOI: 10.47813/dnit.5.2026.2024
Ключевые слова: artificial intelligence, multilingual technologies, transformer models, transfer learning, low-resource languages, large language models, искусственный интеллект, мультилингвистические технологии, трансформерные модели, трансферное обучение, малоресурсные языки, большие языковые модели
Аннотация: Статья посвящена систематизации и сравнительному анализу современных методов искусственного интеллекта, применяемых в мультилингвистических технологиях. Рассматривается эволюция подходов к машинному переводу - от правил-ориентированных и статистических моделей к нейронным архитектурам и трансформерам. Особое внимание уделено многояПоказать полностьюзычным моделям, таким как Multilingual BERT, XLM-R и NLLB, а также большим языковым моделям. Анализируются механизмы самовнимания, кросс-языковые эмбеддинги и методы трансферного обучения, обеспечивающие перенос знаний между языками и эффективную работу с малоресурсными языками. Проведен сравнительный анализ архитектур по показателям качества и масштабируемости, выявлены их преимущества и ограничения, включая вычислительную затратность и проблему языкового дисбаланса. Показано, что нейронные трансформерные модели значительно превосходят предыдущие поколения систем по качеству перевода и универсальности применения. Делается вывод о стратегической значимости искусственного интеллекта для развития глобальных цифровых коммуникаций и сохранения языкового разнообразия, а также обозначаются перспективные направления дальнейших исследований. This article systematizes and comparatively analyzes modern artificial intelligence methods used in multilingual technologies. It examines the evolution of approaches to machine translation, from rule-based and statistical models to neural architectures and transformers. Particular attention is paid to multilingual models such as Multilingual BERT, XLM-R, and NLLB, as well as large language models. Self-attention mechanisms, cross-lingual embeddings, and transfer learning methods that ensure knowledge transfer between languages and efficient translation of resource-poor languages are analyzed. A comparative analysis of the architectures based on quality and scalability metrics is conducted, identifying their advantages and limitations, including computational costs and the problem of language imbalance. It is shown that neural transformer models significantly outperform previous generations of systems in terms of translation quality and versatility. The article concludes that artificial intelligence is of strategic importance for the development of global digital communications and the preservation of linguistic diversity, and identifies promising areas for further research.
Журнал: Достижения науки и технологий (ДНиТ-V-2026)
Номера страниц: 330-336
Место издания: Красноярск