TranslateGemma : des modèles open source révolutionnaires pour une traduction multilingue ultra-efficiente
Aujourd’hui, nous présentons TranslateGemma, une nouvelle série de modèles open source de traduction fondés sur Gemma 3, disponibles en versions de 4 milliards, 12 milliards et 27 milliards de paramètres. Ce lancement marque une avancée significative dans le domaine de la traduction ouverte, permettant une communication fluide entre 55 langues, quel que soit l’endroit où vous vous trouvez ou l’appareil que vous utilisez. En transférant les connaissances de nos modèles les plus performants vers des modèles compacts et hautement efficaces, nous avons conçu une suite où l’efficacité n’entraîne pas de compromis sur la qualité. Performance supérieure, même avec moins de paramètres L’un des résultats les plus frappants de notre évaluation technique est l’efficacité remarquable de ces modèles. Grâce à un processus d’entraînement spécialisé, le modèle TranslateGemma de 12 milliards de paramètres dépasse le modèle de référence Gemma 3 de 27 milliards, selon les mesures du benchmark WMT24++ utilisant MetricX. Pour les développeurs, cela signifie pouvoir obtenir une qualité de traduction de haute fidélité avec moins de la moitié des paramètres du modèle de référence. Cette avancée permet une plus grande capacité de traitement et une latence réduite, sans sacrifier la précision. De même, le modèle de 4 milliards de paramètres rivalise avec les performances du modèle plus gros de 12 milliards, ce qui en fait un outil puissant pour les applications mobiles. Nous avons testé TranslateGemma sur le jeu de données WMT24++, couvrant 55 langues et représentant diverses familles linguistiques — des langues à forte ressource comme le chinois ou l’espagnol, aux langues à faible ressource. Dans toutes les langues, TranslateGemma a réduit significativement le taux d’erreur par rapport au modèle de référence Gemma, tout en offrant une meilleure qualité avec une efficacité accrue. Une intelligence dense, issue de Gemini Comment avons-nous atteint cette densité de performance ? Grâce à un processus de fine-tuning en deux étapes spécialement conçu pour transférer l’« intuition » des modèles Gemini vers une architecture open source. Fine-tuning supervisé (SFT) : Nous avons entraîné les modèles de base Gemma 3 sur un jeu de données diversifié de textes parallèles, combinant des traductions humaines et des traductions synthétiques de haute qualité générées par les modèles Gemini les plus avancés. Ce mélange garantit une couverture linguistique étendue et une fidélité élevée, même pour les langues peu documentées. Apprentissage par renforcement (RL) : Pour affiner davantage la qualité, nous avons mis en œuvre une phase d’apprentissage par renforcement utilisant un ensemble de modèles de récompense, dont des métriques avancées comme MetricX-QE et AutoMQM, afin de guider les modèles vers des traductions plus naturelles et contextuellement précises. Une couverture linguistique sans précédent Nous avons entraîné et évalué rigoureusement TranslateGemma sur 55 paires de langues, assurant des performances fiables et de haute qualité pour les principales langues, ainsi que pour de nombreuses langues à faible ressource. Au-delà de ces paires principales, nous avons étendu l’entraînement à près de 500 paires supplémentaires. Conçu comme une base solide, TranslateGemma est idéal pour les chercheurs souhaitant l’adapter à des paires linguistiques spécifiques ou améliorer la qualité des langues peu documentées. Bien que les métriques d’évaluation pour cet ensemble étendu ne soient pas encore confirmées, nous avons inclus la liste complète dans notre rapport technique pour encourager l’exploration et la recherche communautaire. Capacités multimodales fortes Les modèles TranslateGemma conservent les puissantes capacités multimodales de Gemma 3. Nos tests sur le benchmark Vistra, dédié à la traduction de texte dans les images, montrent que les améliorations en traduction textuelle se traduisent également par une meilleure capacité à traduire du texte intégré dans des images — même sans entraînement multimodal spécifique durant la phase de développement de TranslateGemma. Exécution partout TranslateGemma établit une nouvelle norme pour les modèles open source de traduction, combinant des performances de pointe à une efficacité exceptionnelle. Disponible en trois tailles, il est conçu pour fonctionner dans des environnements variés, des serveurs aux appareils mobiles. Essayez TranslateGemma dès aujourd’hui La sortie de TranslateGemma offre aux chercheurs et développeurs des outils puissants et flexibles pour une large gamme de tâches de traduction. Nous sommes impatients de voir comment la communauté exploitera ces modèles pour briser les barrières linguistiques et promouvoir une compréhension plus profonde entre les cultures.
