Google представил нейросеть для переводов TranslateGemma

Gemma

Google объявила о запуске TranslateGemma — семейства открытых моделей машинного перевода, созданных на базе Gemma 3 и ориентированных на максимально широкий спектр устройств. Линейка включает три версии: 4B для мобильных устройств, 12B для ноутбуков и 27B для серверных GPU, что делает технологию доступной как разработчикам, так и крупным компаниям.

По данным Google, новая серия демонстрирует значительный прогресс в качестве перевода: модель на 12 млрд параметров в тестах компании превзошла даже более крупную Gemma 3 на 27 млрд параметров. Разработчики отмечают, что количество ошибок снизилось «значительно» на всех языках, включая малораспространённые. Например, при переводе на исландский ошибки уменьшились более чем на 30%, а на суахили — примерно на 25%.

TranslateGemma обучалась по двухэтапной схеме: сначала на больших массивах синтетических и человеческих параллельных данных, затем — с использованием методов обучения с подкреплением, оптимизирующих качество перевода по метрикам MetricX‑QE и AutoMQM. Это позволило добиться высоких результатов на тестах WMT25 и WMT24++ по 55 языковым парам.

Модели уже доступны на Hugging Face, а также интегрированы в облачную платформу Google Vertex AI, что упрощает внедрение TranslateGemma в корпоративные продукты и сервисы.

Отдельным преимуществом стала возможность перевода текста прямо на изображениях — вывесках, меню, документах — без использования OCR и без дополнительного мультимодального обучения. Это делает TranslateGemma одним из самых универсальных инструментов машинного перевода на рынке.

Аватар Traffic Mafia

Твое авторитетное медиа в сфере арбитража трафика и партнерского маркетинга, генерирующее актуальный и качественный контент.

Оцените автора
TrafficMafia
Добавить комментарий