ScalewayがHugging Faceの推論プロバイダーに登録、欧州向けサーバーレスAIモデル利用がさらに簡単に
Hugging Faceは、クラウドプロバイダーのScalewayが同プラットフォームの推論提供者(Inference Provider)として正式にサポートされたことを発表した。これにより、Hugging Faceのモデルページから直接Scalewayのインフラを活用し、gpt-oss、Qwen3、DeepSeek R1、Gemma 3など人気のあるオープンソースモデルを高速かつ簡単に実行できるようになった。ユーザーは、https://huggingface.co/scaleway でScalewayの組織アカウントを閲覧し、https://huggingface.co/models?inference_provider=scaleway&sort=trending でトレンドモデルを試すことができる。 Scaleway Generative APIsは、欧州のデータセンター(パリ)に設置されたセキュアな環境で動作する、完全管理型のサーバーレス推論サービス。初期料金は100万トークンあたり€0.20からで、テキスト生成・埋め込みモデルの両方に対応。構造化出力、関数呼び出し、テキスト・画像のマルチモーダル処理といった高度な機能も提供。応答遅延は最初のトークン生成で200ミリ秒未満と低く、インタラクティブなアプリやエージェントワークフローに最適。 Hugging FaceのPythonとJavaScript用SDKでは、provider="scaleway"と指定するだけで簡単に利用可能。APIキーを直接使うか、Hugging Faceトークンでルーティングする2つのモードに対応。直接リクエストの場合はScalewayのアカウントで課金され、ルーティング利用の場合はHugging Face経由で標準のプロバイダーレートのみが課金され、追加手数料は発生しない。 Hugging Face PROユーザーは毎月2ユーロ相当の推論クレジットが付与され、高負荷利用や開発環境の強化も可能。無料アカウントには制限付きの無料推論が提供されるが、本格利用にはPROプランの利用が推奨されている。 今後は、ユーザーからのフィードバックをもとにサービスをさらに進化させていく予定。意見や質問はHugging Faceのディスカッションスレッドで共有可能。
