Google выпустила открытую модель машинного перевода TranslateGemma для десятков языков

Модель, основанная на Gemma 3, способна переводить текст непосредственно с изображений и поддерживает 55 языков с гарантированным качеством, а также обучена на данных примерно по 500 языкам. Веса модели доступны на платформах Hugging Face и Kaggle.

Компания Google представила TranslateGemma — новую открытую модель для машинного перевода, построенную на архитектуре Gemma 3. Модель была дообучена на синтетических данных, сгенерированных флагманской системой Gemini, с последующей доработкой методом обучения с подкреплением (reinforcement learning). Релиз осуществлён в рамках стратегии «тихих» дополнительных выпусков без масштабных анонсов.
Поскольку в основе модели лежит Gemma 3, она обладает встроенной функцией оптического распознавания символов (OCR) и может переводить текст непосредственно с изображений, минуя необходимость построения внешних конвейеров обработки. Это делает TranslateGemma удобным инструментом для перевода скриншотов, фотографий с текстом и сканированных документов.
Разработчики заявляют гарантированное качество перевода для 55 языков. При этом в процессе обучения модель использовала данные ещё примерно по 500 языкам, что означает возможность работы с редкими диалектами, хотя и с повышенным риском возникновения ошибок или «галлюцинаций» модели.
Линейка включает три версии с разным количеством параметров: 4 миллиарда, 12 миллиардов и 27 миллиардов. Согласно внутренним тестам Google, версия на 12 миллиардов параметров превосходит в задачах перевода базовую модель Gemma 3, которая содержит 27 миллиардов параметров. При этом основное сравнение в материалах компании проводится с собственными моделями, а не с классическими специализированными решениями, такими как NLLB, поэтому точное конкурентное положение TranslateGemma на рынке ещё предстоит оценить независимо.
Веса всех версий модели уже опубликованы на платформах Hugging Face и Kaggle. Версия на 12 миллиардов параметров рассматривается как оптимальный баланс между качеством перевода и требуемыми вычислительными ресурсами. Для использования старшей версии на 27 миллиардов параметров с максимальным качеством потребуются производительные аппаратные ускорители уровня NVIDIA H100.
© 16.01.2026
Контакты:
info@smartinfra.ru
105118, г. Москва,
ул. Буракова, 27 к3,
3 этаж, офис 322

© 2025