HyperAIHyperAI
Back to Headlines

OpenAI en manque criant de GPUs : une course folle vers l’IA générale

il y a 21 heures

Les dirigeants d’OpenAI ne cessent de souligner la pression croissante exercée par la demande insatiable de puissance de calcul, notamment en termes de puces GPU. Sam Altman, PDG de l’entreprise, a récemment annoncé que OpenAI prévoit d’intégrer plus d’un million de GPU d’ici la fin de l’année. Cette ambition s’inscrit dans une course effrénée à l’infrastructure technologique, illustrée par les ambitions d’Elon Musk, dont l’entreprise xAI a dévoilé un supercluster de plus de 200 000 GPU appelé Colossus pour entraîner Grok4. Altman a ironiquement tweeté en juillet : « Je suis fier de l’équipe, mais ils doivent maintenant trouver comment multiplier par 100 cela ». De son côté, Musk a déclaré vouloir atteindre 50 millions d’équivalents de la puce Nvidia H100 pour xAI dans les cinq prochaines années. Cette course aux ressources matérielles s’explique par le rôle central des GPU dans le développement de l’intelligence artificielle. Jonathan Cohen, vice-président de la recherche appliquée chez OpenAI, les décrit comme une « monnaie » pour les chercheurs en IA. Priscilla Chan, cofondatrice du fonds philanthropique Chan Zuckerberg Initiative, confirme qu’ils servent même de levier de recrutement. Kevin Weil, directeur produit, résume la logique : « Plus on a de GPU, plus on utilisera l’IA ». Il compare cette dynamique à l’évolution d’Internet : « Plus on diminue la latence et augmente la bande passante, plus les gens font de nouvelles choses. Le vidéo était impossible autrefois, aujourd’hui c’est quotidien grâce à la capacité du réseau. » Face à cette demande exponentielle, OpenAI a lancé Stargate, un projet d’envergure de 500 milliards de dollars mené en partenariat avec Oracle et SoftBank. Présenté à la Maison-Blanche en janvier, ce projet vise à permettre aux États-Unis d’atteindre l’IA générale (AGI). Sarah Friar, directrice financière, a récemment affirmé à CNBC que le principal défi actuel d’OpenAI reste la pénurie constante de capacité de calcul, d’où la nécessité de Stargate et d’investissements massifs dans les infrastructures. Sur le plan produit, les GPU supplémentaires permettraient d’améliorer la performance : réduction de la latence, accélération de la génération de tokens, extension de fonctionnalités aux utilisateurs gratuits ou « Plus », ou encore lancement d’expériences plus nombreuses. Weil reconnaît toutefois que la demande interne est « infinie » au sein de l’entreprise. « C’est pourquoi nous construisons tant de capacité », dit-il, soulignant le dilemme constant entre les besoins de recherche et les priorités de développement produit. En somme, la course aux GPU n’est pas seulement une question technique, mais stratégique : elle détermine la vitesse à laquelle OpenAI et ses concurrents peuvent innover, déployer des modèles plus puissants et définir l’avenir de l’intelligence artificielle.

Related Links

OpenAI en manque criant de GPUs : une course folle vers l’IA générale | Gros titres | HyperAI