Scaleway 正式成为 Hugging Face 推理服务官方提供商,加速 AI 模型部署新纪元
Scaleway已正式成为Hugging Face推理服务提供商(Inference Provider)的一员,标志着其在AI模型部署生态中的重要进展。现在,用户可通过Hugging Face Hub直接调用Scaleway的推理服务,实现无需自建基础设施的高效模型部署。 这一集成使开发者能够轻松访问包括gpt-oss、Qwen3、DeepSeek R1和Gemma 3等热门开源模型,只需在模型页面选择Scaleway作为推理提供方即可。用户可在https://huggingface.co/scaleway浏览Scaleway官方组织下的模型,并通过https://huggingface.co/models?inference_provider=scaleway&sort=trending查看当前最受欢迎的受支持模型。 Scaleway生成式AI API是一项全托管、无服务器的推理服务,支持来自领先研究机构的前沿AI模型,通过简单API调用即可使用。其定价极具竞争力,按token计费,起价为每百万tokens 0.20欧元。服务运行于欧洲本地数据中心(如法国巴黎),保障数据主权与低延迟,特别适合欧洲用户。 平台支持多种高级功能,包括结构化输出、函数调用、多模态处理(文本与图像),并为生产环境优化,实现首token响应时间低于200毫秒,适用于交互式应用和智能体工作流。服务同时支持文本生成与嵌入模型。 在使用方式上,用户可通过Hugging Face网页界面或客户端SDK进行调用。在Python中,使用huggingface_hub库并指定provider="scaleway"即可;JavaScript中则通过@huggingface/inference库实现。两种方式均支持使用Hugging Face令牌自动路由,或直接使用Scaleway API密钥。 关于计费,若使用自有API密钥,费用由Scaleway直接结算;若通过Hugging Face令牌调用,则按原价结算,无额外加价。未来可能推出与提供商的收益分成机制。 Hugging Face PRO用户每月可获2美元推理额度,可用于所有推理提供商。免费用户也享有一定额度,但建议升级以获得更高使用上限和更多功能,如ZeroGPU、Spaces开发模式等。 欢迎用户前往https://huggingface.co/spaces/huggingface/HuggingDiscussions/discussions/49分享使用反馈,共同推动生态发展。
