Googleが開発した新オープン翻訳モデル「TranslateGemma」をリリース—55言語対応、効率と精度の両立を実現
Googleが、Gemma 3を基盤としたオープンソース翻訳モデル「TranslateGemma」を発表した。この新シリーズは4B、12B、27Bのパラメータサイズで提供され、55言語をカバーする広範な翻訳能力を備え、誰もがどのデバイスでも世界中の言語を自由にコミュニケーションできるようにする。特に注目すべきは、大規模モデルの知識を高効率な小型モデルに凝縮した点で、性能の低下を伴わず、効率性と品質の両立を実現した。 技術評価では、12B版のTranslateGemmaがGemma 3 27Bのベースラインを、WMT24++ベンチマークでMetricX評価で上回る結果を達成。これは、パラメータ数が半分以下でも、同等以上、あるいはそれ以上の翻訳品質を実現していることを意味する。また、4B版モデルは12Bのベースラインと同等の性能を発揮し、モバイル端末での推論用途に最適な選択肢となる。 開発の鍵は、独自の二段階ファインチューニングプロセスにある。第一段階では、人間翻訳文と最先端のGeminiモデルが生成した高品質合成翻訳データを用いた教師ありファインチューニングを行い、多言語カバレッジと低資源言語の精度を確保。第二段階では、MetricX-QEやAutoMQMといった高度な評価モデルを統合した強化学習を実施し、文脈に適した自然な翻訳を生成するようにモデルを最適化した。 55言語ペアの厳密な訓練・評価に加え、約500の追加言語ペアについても学習を実施。この拡張セットは、研究者によるカスタムモデルの開発や、低資源言語の品質向上に向けた基礎モデルとして活用可能。公式評価は未実施だが、技術レポートで全リストを公開し、コミュニティの活用を促している。 さらに、Gemma 3のマルチモーダル能力を引き継ぎ、Vistra画像翻訳ベンチマークでも、画像内のテキスト翻訳性能が向上。特別なマルチモーダルファインチューニングを行わなくても、自然な翻訳結果を出力する能力を備える。 TranslateGemmaは、クラウドからエッジデバイスまで、あらゆる環境で実行可能。開発者や研究者が翻訳技術の進化に貢献できるよう、オープンに提供される。今すぐ利用を開始し、言語の壁を越える新しい可能性を探索できる。
