HyperAIHyperAI

Command Palette

Search for a command to run...

NVIDIA et OpenAI s'allient pour un déploiement historique d'infrastructure IA

NVIDIA et OpenAI ont annoncé un partenariat stratégique majeur, marquant une nouvelle étape dans l’essor de l’intelligence artificielle. Les deux géants technologiques s’engagent à déployer au moins 10 gigawatts de systèmes NVIDIA pour alimenter l’infrastructure de calcul d’OpenAI, destinée à entraîner et exécuter ses prochaines générations de modèles, sur la voie de l’« intelligence superintelligente ». Pour soutenir ce déploiement, NVIDIA prévoit d’investir jusqu’à 100 milliards de dollars dans OpenAI, en lien avec l’installation progressive des nouvelles infrastructures. La première phase devrait être opérationnelle d’ici la deuxième moitié de 2026, utilisant la plateforme NVIDIA Vera Rubin, dotée d’une architecture CPU et réseau innovante. Jensen Huang, fondateur et PDG de NVIDIA, a souligné que cette collaboration représente une évolution naturelle après dix ans de coopération, depuis les premiers supercalculateurs DGX jusqu’à la révolution de ChatGPT. « Ce partenariat marque le prochain bond en avant », a-t-il déclaré, soulignant que le calcul serait au cœur de l’économie future. Sam Altman, CEO d’OpenAI, a renchéri : « Tout commence par le calcul. L’infrastructure de calcul sera la base de l’économie à venir, et nous l’utiliserons pour créer de nouvelles percées en IA et en permettre l’accès à tous à grande échelle. » Greg Brockman, cofondateur d’OpenAI, a rappelé que NVIDIA a été un partenaire clé depuis les débuts, permettant de développer des systèmes utilisés par des centaines de millions de personnes chaque jour. Ce partenariat renforce la position d’OpenAI comme client stratégique de NVIDIA, en tant que partenaire privilégié pour le calcul et le réseau dans le cadre de ses projets d’« usine d’IA ». Les deux entreprises collaboreront à l’optimisation mutuelle de leurs roadmaps logicielles et matérielles. Ce projet s’inscrit dans un contexte plus large de course à l’infrastructure IA aux États-Unis, où Microsoft, Meta, Google et Amazon investissent massivement dans des centres de données, souvent en lien avec des accords énergétiques, notamment avec des fournisseurs d’énergie nucléaire. Cette course suscite des tensions dans les communautés locales, en raison des contraintes sur les réseaux électriques et des préoccupations environnementales. Par ailleurs, une formation autodidacte sur la création d’un agent RAG (Retrieval-Augmented Generation) agissant, basée sur la plateforme NVIDIA DevX, permet aux développeurs de construire des systèmes capables d’analyser dynamiquement des données externes. Contrairement aux systèmes LLM traditionnels, l’agentic RAG intègre des agents autonomes capables de décider quand et comment récupérer de l’information, en utilisant des outils comme des bases de données vectorielles, des modèles d’encodage (NeMo Retriever) et des modèles de reranking. Ce système repose sur l’architecture ReAct, qui combine raisonnement et action, permettant une réponse plus intelligente et contextuelle. La formation guide les utilisateurs à travers l’ingestion de données, le découpage de texte, la création d’une base vectorielle FAISS, la construction d’un outil de récupération et la configuration d’un agent dynamique via LangGraph. Elle inclut aussi la migration vers des microservices NIM locaux pour une performance optimale en production. Enfin, des outils comme LangSmith permettent de tracer les interactions pour améliorer l’agent. Ce partenariat et ces avancées technologiques illustrent une nouvelle ère où l’IA repose sur une infrastructure de calcul de masse, soutenue par des investissements sans précédent et des innovations logicielles et matérielles en constante évolution.

Liens associés