OpenAI teste de nouvelles fonctionnalités gourmandes en calcul, réservées aux utilisateurs Pro et à prix majorés
Sam Altman, PDG d’OpenAI, a annoncé que la société teste de nouvelles fonctionnalités extrêmement gourmandes en ressources informatiques, en « jetant beaucoup de puissance de calcul » sur des idées innovantes. Dans un message publié sur X, il a expliqué que ces nouveaux services, qui nécessitent des coûts élevés liés à l’utilisation des GPU, seront initialement réservés aux abonnés Pro, voire accompagnés de frais supplémentaires. Cette stratégie s’inscrit dans une volonté d’expérimenter les limites actuelles de l’infrastructure d’intelligence artificielle, tout en évaluant ce qui est possible avec des quantités massives de calcul à des coûts actuels. « Nous voulons aussi découvrir ce qui est possible quand on jette beaucoup de calcul, aux coûts actuels des modèles, sur des idées intéressantes », a-t-il écrit. Cette annonce souligne le défi persistant d’OpenAI : rendre l’IA avancée accessible tout en couvrant les coûts croissants liés à la puissance de calcul. Altman a réaffirmé l’objectif fondamental de la société : « réduire le coût de l’intelligence aussi rapidement que possible et rendre nos services largement disponibles ». Il a toutefois assuré qu’il était confiant dans la capacité d’OpenAI à atteindre cet objectif à long terme. Le besoin en puissance de calcul est devenu une course sans fin. Kevin Weil, directeur produit d’OpenAI, avait déjà souligné, dans une récente émission du podcast Moonshot, que chaque nouvelle capacité GPU est immédiatement utilisée. « Plus on a de GPU, plus on utilisera l’IA », a-t-il affirmé, comparant cette dynamique à l’essor du vidéo grâce à l’augmentation de la bande passante. En juillet, Altman avait annoncé que OpenAI prévoyait d’intégrer plus d’un million de GPU d’ici la fin de l’année, tout en plaisantant sur la nécessité de trouver des moyens de les multiplier par 100. Ce contexte s’inscrit dans une course mondiale aux GPU. Elon Musk a révélé que son entreprise xAI utilise un supercluster de plus de 200 000 GPU, nommé Colossus, pour entraîner son modèle Grok4. De son côté, Meta, dirigée par Mark Zuckerberg, a déclaré dans une récente interview du podcast Access que la « puissance de calcul par chercheur » était devenue un avantage concurrentiel clé, avec des dépenses massives en GPU et en infrastructure personnalisée. En résumé, OpenAI, comme d’autres géants de la tech, est confronté à une course technologique et économique sans précédent, où la capacité à exploiter massivement le calcul détermine non seulement la performance des modèles, mais aussi la capacité à innover et à maintenir une position dominante sur le marché de l’IA.