Hugging FaceとGoogle Cloudが強化パートナーシップを発表——オープンAIモデルの高速開発・デプロイを実現
Hugging FaceとGoogle Cloudは、オープンモデルを活用したAI開発を加速する新たな戦略的提携を発表した。この提携により、企業が自社のAIを柔軟に構築・カスタマイズできる環境が整う。Hugging Faceのジェフ・ボディエ氏は、「すべての企業が自社のAIを構築できる未来を信じており、Google Cloud上でそれを実現しやすくなる」と強調。Google Cloudのライアン・J・サルバ氏も、「GemmaモデルをはじめとするオープンAIへの貢献を評価し、Google Cloudをオープンモデル開発の最適なプラットフォームにするとともに、Hugging Faceの1000以上のモデルをコミュニティに提供してきた」と述べた。 提携の主な成果として、Google CloudユーザーがHugging Faceの200万を超えるオープンモデルを、Vertex AIのModel GardenやGKE AI/ML、Cloud Run GPUなど、さまざまなサービスで簡単に利用できるようになる。特に注目すべきは、Hugging FaceリポジトリのモデルとデータセットをGoogle Cloud上にキャッシュするCDNゲートウェイの構築だ。これにより、モデルのダウンロード時間が大幅に短縮され、モデル供給チェーンの信頼性も向上。ユーザーは、Vertex、GKE、Cloud Run、VMなど、自らのインフラに応じて、高速な「初トークン時間」を実現できる。 Hugging Faceのユーザーには、Inference Endpointsの拡充がもたらされる。Google CloudのTPU(第7世代)をネイティブにサポートし、GPUと同様の使いやすさで高パフォーマンスなAI推論が可能になる。また、Googleの脅威インテリジェンスとMandiantのセキュリティ技術を活用し、Hugging Faceのモデル、データセット、Spacesのセキュリティが強化される。 この提携により、Hugging Faceの1000万人のAI開発者(AI Builders)が、Google CloudのインフラとHugging Faceのエコシステムをシームレスに活用できる。企業は自社のAIを安全なインフラ上で完全に制御しながら、カスタムモデルの開発・デプロイを迅速に進められる。 両社は、すべての企業がオープンモデルで自社AIを構築できる「オープンな未来」の実現を目指し、今後も技術的連携を強化していく。
