De la recherche à la domination : comment un petit laboratoire a fait de Nvidia une géante de 4 billions de dollars
En 2009, lorsque Bill Dally rejoint le laboratoire de recherche de Nvidia, celui-ci ne comptait qu’une douzaine de personnes et se consacrait principalement à la traçage de rayons, une technique de rendu graphique utilisée dans la création d’images réalistes. Dally, qui avait déjà conseillé Nvidia depuis 2003 tout en enseignant à Stanford, fut convaincu par David Kirk, alors responsable du laboratoire, et par Jensen Huang, le PDG, de rejoindre de manière permanente. Leur « pression intense » finit par l’emporter, et il trouva dans cette nouvelle mission un terrain idéal pour exercer son influence et son expertise. À sa tête, il lança une expansion rapide du laboratoire, qui s’ouvrit à de nouveaux domaines comme la conception de circuits et l’intégration à très grande échelle (VLSI), essentielle pour la fabrication de puces complexes. Dally vit très tôt le potentiel de l’intelligence artificielle (IA) dans le traitement par les GPU. Dès 2010, Nvidia commença à adapter ses puces pour l’IA, bien avant la vague actuelle de popularité de l’intelligence artificielle. Cette vision précoce permit à la société de se positionner comme leader mondial dans le domaine des GPU dédiés à l’IA, un avantage stratégique décisif. Aujourd’hui, Nvidia cherche à étendre son influence au-delà des centres de données. Le laboratoire s’est tourné vers l’IA physique et la robotique, avec pour ambition de devenir le « cerveau » des robots du futur. Sanja Fidler, nommée vice-présidente de la recherche en IA en 2018, a joué un rôle clé dans cette transition. Issue du MIT, elle avait déjà travaillé sur la simulation de robots. Intrigué par ses projets, Jensen Huang l’a personnellement invité à rejoindre Nvidia, soulignant une vision collaborative : « Viens travailler avec moi, pas pour nous. » Fidler a alors fondé à Toronto un laboratoire au sein d’Omniverse, une plateforme de simulation développée par Nvidia. Un défi majeur était la création de données 3D de qualité à partir d’images et de vidéos. Pour y parvenir, Nvidia a investi dans le rendering différentiable, une technologie qui permet d’aller du rendu 3D vers l’image — au lieu de l’inverse —, rendant les processus compatibles avec l’apprentissage automatique. En 2021, le modèle GANverse3D a permis de générer des modèles 3D à partir d’images. En 2022, la technologie Neuric Neural Reconstruction Engine a été utilisée pour transformer des vidéos de véhicules autonomes et de robots en environnements 3D simulés. Ces avancées ont donné naissance à la famille de modèles d’« mondes » (Cosmos), annoncée à CES en janvier. Nvidia continue de travailler à accélérer ces modèles pour qu’ils fonctionnent en temps réel — une exigence cruciale pour les robots, qui doivent interagir avec leur environnement à des vitesses bien supérieures à celles du monde réel. À SIGGRAPH, la société a présenté de nouveaux modèles générant des données synthétiques pour entraîner les robots, ainsi que des outils logiciels dédiés aux développeurs. Malgré l’enthousiasme entourant les robots humanoïdes, Dally et Fidler restent prudents. Ils estiment que ces systèmes ne seront pas présents dans les foyers avant plusieurs années, comparant cette trajectoire à celle des voitures autonomes. Pourtant, ils soulignent les progrès rapides grâce à l’IA visuelle, aux modèles génératifs pour la planification de tâches, et à l’abondance croissante des données d’entraînement. Ces éléments, combinés à la capacité de simulation avancée de Nvidia, positionnent la société comme un acteur incontournable dans la prochaine révolution de l’IA physique.