Un startup menacée par Nvidia dévoile une alternative prometteuse à CUDA
Dans la Silicon Valley, où les paris technologiques audacieux ne manquent pas, peu d’ambitions semblent plus risquées que de remettre en question le monopole de Nvidia sur l’IA, incarné par son écosystème logiciel CUDA. C’est précisément ce que tente de faire Modular, une startup fondée par des experts du logiciel issus d’Apple et de Google. Chris Lattner, cofondateur et PDG, est célèbre pour avoir créé le langage Swift chez Apple, ainsi que pour avoir conçu les infrastructures logicielles derrière les puces TPU de Google, en collaboration avec Tim Davis, son co-fondateur. Leur objectif ? Détruire l’emprise de CUDA, un logiciel qui, depuis près de 20 ans, est devenu l’ossature invisible de l’explosion de l’intelligence artificielle. Initialement conçu pour rendre les cartes graphiques programmables, CUDA s’est transformé en un écosystème complet — langage, bibliothèques, compilateurs, outils d’inférence — auquel la majorité des entreprises d’IA se sont adaptées. Ce succès a un prix : l’industrie est désormais fortement dépendante des GPU Nvidia, ce qui limite la portabilité et l’innovation sur d’autres architectures. Malgré la concurrence apparente — AMD, Google (TPU), Amazon (Trainium), ou des startups émergentes — chaque fabricant développe son propre logiciel dédié à ses puces. Résultat : les développeurs doivent réinventer la roue à chaque nouveau matériel. La plupart préfèrent rester sur CUDA, même si cela entrave la diversité. « Personne ne construit de solutions portables, car pourquoi développer du logiciel pour plusieurs puces alors que les fabricants s’en chargent eux-mêmes ? » souligne Lattner. Nvidia pourrait étendre CUDA à d’autres puces, mais cela affaiblirait son principal avantage concurrentiel : le lien étroit entre son logiciel et son matériel. « Évidemment, ils ne veulent pas la portabilité », affirme-t-il. Face à ce paradoxe — une demande massive de portabilité, mais aucune entreprise incitée à la fournir — Lattner et Davis ont lancé Modular en 2022. Depuis, la startup a levé 380 millions de dollars auprès d’investisseurs comme Greylock, General Catalyst et GV, la branche de capital-investissement de Google. Sa valorisation atteint 1,6 milliard de dollars. Le cœur de l’offre de Modular repose sur Mojo, un nouveau langage de programmation conçu pour allier la simplicité de Python à la performance de C++. Il s’intègre parfaitement à PyTorch, le framework phare de l’IA. Ensuite vient MAX, une couche d’inférence qui fonctionne sur les GPU Nvidia, AMD (MI355X) et Apple. Enfin, Mammoth permet de gérer des clusters de puces. En septembre, Modular a annoncé des performances exceptionnelles sur les nouvelles cartes Blackwell B200 de Nvidia et les MI355X d’AMD, avec une amélioration de 50 % sur les puces AMD par rapport à leur logiciel natif. Plus important : les deux architectures fonctionnent sur la même plateforme, ouvrant la voie à des comparaisons équitables. Inworld AI, une startup spécialisée dans l’IA conversationnelle (clients : Disney, NBCUniversal), a testé la solution. Leur défi : réduire de 60 % les coûts et de 40 % la latence sur les B200. En quatre semaines, Modular a relevé le défi. « J’ai misé sur mon argent », affirme Kylan Gibbs, son PDG. Lattner insiste : Modular n’a pas pour but de tuer Nvidia. Il compare son projet à Android : une plateforme ouverte qui favorise la concurrence sans éliminer les leaders. « Nvidia n’a pas besoin de disparaître, mais l’industrie a besoin de plus de diversité, d’innovation et de choix », affirme-t-il. L’arrivée de Google avec ses TPU et le modèle Gemini 3 montre que la pression sur Nvidia augmente. Et une solution comme Modular, en rendant les puces plus interchangeables, pourrait transformer le paysage de l’IA.
