HyperAIHyperAI

Command Palette

Search for a command to run...

携手谷歌云,共筑开放未来新篇章

今天,Hugging Face 宣布与 Google Cloud 建立更深层次的战略合作伙伴关系,旨在帮助全球企业更便捷地基于开源模型构建专属人工智能系统。 Hugging Face 首席执行官 Jeff Boudier 表示:“谷歌在开源AI领域做出了诸多开创性贡献,从最初的 Transformer 架构到如今的 Gemma 系列模型。我相信,未来每个企业都应能自主构建和定制自己的AI。通过此次战略合作,我们正让这一愿景在 Google Cloud 上变为现实。” Google Cloud 产品管理高级总监 Ryan J. Salva 表示:“Hugging Face 已成为推动全球数百万开发者访问、使用和定制开源模型的核心力量,我们已贡献超过1000个模型至社区。未来,我们将携手打造 Google Cloud 作为构建开源模型的最佳平台。” 此次合作将惠及两类用户。对 Google Cloud 客户而言,他们可通过 Vertex AI 的 Model Garden 一键部署主流开源模型;希望掌控基础设施的用户可在 GKE AI/ML 中使用 Hugging Face 的模型库,或借助 Hugging Face 提供的预配置环境。此外,借助 Cloud Run 的 GPU 支持,用户可实现无服务器的开源模型推理部署,灵活高效。 为提升性能,双方将联合推出基于 Hugging Face Xet 存储技术与 Google Cloud 先进存储网络能力的 CDN 网关,将模型与数据集缓存至 Google Cloud 内部,显著缩短下载时间,增强模型供应链稳定性。无论使用 Vertex、GKE、Cloud Run 还是自建虚拟机,用户都将获得更快的首次响应速度与更简便的模型治理体验。 对 Hugging Face 用户而言,Inference Endpoints 将获得 Google Cloud 的强大支持,包括更多实例类型、更低价格,以及对 TPU(第七代定制AI芯片)的原生库支持,使 TPU 使用体验与 GPU 一样简单。同时,双方将结合 Google 威胁情报与 Mandiant 安全技术,提升 Hugging Face Hub 上数百万开源模型、数据集和 Spaces 的安全性。 Hugging Face 与 Google Cloud 的深度协作,致力于推动一个开放、可控、安全的AI未来——让每个企业都能基于开源模型,在自有基础设施中构建并托管专属AI系统。无论是通过 Vertex AI、GKE、Cloud Run 还是 Hugging Face Inference Endpoints,构建AI将变得更简单、更高效。 欢迎在评论区告诉我们你希望我们基于此次合作实现什么新功能。

相关链接