HyperAIHyperAI

Command Palette

Search for a command to run...

Hugging Face et Google Cloud s’associent pour accélérer l’ère de l’IA ouverte

Aujourd’hui, Hugging Face annonce un partenariat stratégique renforcé avec Google Cloud, visant à faciliter pour les entreprises la construction de leurs propres modèles d’intelligence artificielle à partir de modèles open source. Jeff Boudier, dirigeant chez Hugging Face, souligne l’importance de cette collaboration : « Google a apporté des contributions majeures à l’IA open source, de la première architecture Transformer à la série Gemma. Je crois en un avenir où toutes les entreprises pourront concevoir et personnaliser leur propre IA. Grâce à ce partenariat, nous rendons cela simple sur Google Cloud. » Ryan J. Salva, directeur senior de produit chez Google Cloud, ajoute : « Hugging Face a été le moteur de l’accès, de l’utilisation et de la personnalisation de plus de 2 millions de modèles open source, et nous avons contribué à plus de 1 000 modèles à la communauté. Ensemble, nous ferons de Google Cloud le meilleur endroit pour construire avec des modèles open source. » Ce partenariat s’inscrit dans une logique d’interopérabilité et d’efficacité pour les clients de Google Cloud. Ces derniers peuvent déjà déployer des modèles open source provenant de Hugging Face via Vertex AI, notamment dans Model Garden, où les modèles les plus populaires sont accessibles en quelques clics. Pour les utilisateurs exigeant un contrôle plus fin, Hugging Face propose des environnements préconfigurés sur GKE AI/ML, ou des solutions sur Cloud Run avec GPU, permettant des déploiements serverless. L’objectif est de proposer une expérience fluide, en tirant parti des forces uniques de chaque service, tout en offrant une réelle liberté d’option. Un point clé de la collaboration est la mise en place d’un CDN Gateway dédié aux ressources Hugging Face, basé sur les technologies Xet d’Hugging Face et les infrastructures avancées de stockage et de réseau de Google Cloud. Ce gateway permettra de mettre en cache les modèles et jeux de données directement sur Google Cloud, réduisant drastiquement les temps de téléchargement et renforçant la robustesse de la chaîne d’approvisionnement. Quel que soit l’outil utilisé — Vertex, GKE, Cloud Run ou des machines virtuelles sur Compute Engine — les utilisateurs bénéficieront d’un temps de première réponse (time-to-first-token) accéléré et d’une gestion des modèles simplifiée. Pour les utilisateurs de Hugging Face, cette collaboration améliore l’offre Inference Endpoints, qui permet de déployer un modèle en quelques clics. Les clients Hugging Face auront désormais accès à des instances plus nombreuses et plus performantes sur Google Cloud, avec des tarifs réduits. L’objectif est de rendre les innovations produits et techniques disponibles aux 10 millions d’« AI Builders » de la communauté Hugging Face. La transition d’une page de modèle vers un déploiement sur Vertex Model Garden ou GKE devrait être quasi instantanée, même pour des modèles privés hébergés dans des organisations Enterprise. Le partenariat étend également l’accès aux TPU, les puces d’IA personnalisées de Google, désormais en septième génération. Hugging Face s’engage à intégrer une prise en charge native des TPU dans ses bibliothèques, rendant leur utilisation aussi intuitive que celle des GPU. Enfin, la sécurité est au cœur de cette collaboration : grâce à Google Threat Intelligence et Mandiant, les modèles, jeux de données et espaces (Spaces) sur Hugging Face seront renforcés pour mieux résister aux menaces. En somme, ce partenariat vise à accélérer l’essor d’un avenir ouvert de l’IA, où chaque entreprise peut construire, déployer et contrôler son intelligence artificielle sur des infrastructures sécurisées, en s’appuyant sur les meilleurs outils open source et les technologies cloud les plus avancées.

Liens associés

Hugging Face et Google Cloud s’associent pour accélérer l’ère de l’IA ouverte | Articles tendance | HyperAI