HyperAIHyperAI

Command Palette

Search for a command to run...

Google se réveille en force : TPU menace l’empire d’Nvidia, l’ère de l’IA en pleine redéfinition

Google, long perceived as a laggard in the AI race, est enfin sorti de sa torpeur. En novembre, l’entreprise a enchaîné les annonces marquantes, propulsant sa valeur boursière vers un nouveau sommet et mettant en danger l’omnipotence d’NVIDIA sur le marché des puces d’IA. L’effet a été immédiat : une rumeur selon laquelle Meta envisagerait d’acheter des TPU (Tensor Processing Units) de Google, pour un montant pouvant atteindre des dizaines de milliards de dollars, a fait chuter le cours d’NVIDIA de près de 7 % en une journée. Le jour même, la capitalisation boursière d’Alphabet, la mère de Google, a gagné des centaines de milliards de dollars, s’approchant de la barre des 4 000 milliards de dollars. Depuis le début du mois d’octobre, sa valeur a augmenté d’environ 1 000 milliards. Ce renouveau s’inscrit dans une renaissance plus large. Le lancement de Gemini 3, un modèle d’intelligence artificielle de pointe, a suscité l’admiration dans la communauté technologique. Classé parmi les meilleurs sur des plateformes comme LMArena, le modèle excelle en raisonnement, en programmation et en compréhension contextuelle. Pour une entreprise qui a été longtemps critiquée pour son retard après le succès de ChatGPT en 2022, c’est une victoire stratégique majeure. Le secret de ce redressement ? Une approche « full-stack » inégalée. Contrairement à OpenAI, qui dépend entièrement des services cloud de Microsoft et des puces NVIDIA, Google maîtrise l’ensemble de la chaîne : modèles, applications (comme NotebookLM ou Nano Banana), infrastructure cloud, et même la conception de ses puces. Cette intégration verticale lui confère un contrôle accru et des avantages coût significatifs. Les TPU, développés dès 2015 pour optimiser les recherches, ont évolué jusqu’à la septième génération, Ironwood, capable de gérer à la fois l’entraînement et le débogage de grands modèles. Leur utilisation pour entraîner Gemini 3 en est la preuve. Aujourd’hui, Google n’exploite plus ces puces uniquement en interne. En octobre, Anthropic a annoncé l’acquisition de jusqu’à un million de TPU, pour un montant estimé en centaines de milliards. D’autres acteurs, comme Salesforce ou Safe Superintelligence, ont suivi. Et la rumeur d’un éventuel partenariat avec Meta, si elle se confirme, représenterait le plus grand contrat externe de l’histoire des TPU. Ces avancées sont cruciales pour Google Cloud, dont le chiffre d’affaires a progressé de 34 % au troisième trimestre, à 15,2 milliards de dollars, malgré sa position derrière AWS et Azure. Si les TPU parviennent à attirer de gros clients, Google Cloud pourrait gagner en influence. Certains responsables de l’entreprise visent même 10 % des revenus d’NVIDIA liés à l’IA – soit près de 50 milliards de dollars, un objectif ambitieux mais non dénué de fondement. Cependant, le chemin n’est pas sans obstacles. Sur le plan consommateur, Gemini compte 650 millions d’utilisateurs, mais reste en retrait de ChatGPT, qui atteint 800 millions d’utilisateurs actifs par semaine. En termes de téléchargements, l’application Gemini a été téléchargée 73 millions de fois en octobre, contre 93 millions pour ChatGPT. Dans le monde des entreprises, Google fait face à une concurrence féroce : Microsoft, grâce à son alliance étroite avec OpenAI, et Anthropic, dont le modèle Claude est devenu une référence dans plusieurs secteurs. Le déploiement des TPU est également complexe. Bien que Google ait lancé un programme TPU@Premises permettant aux clients d’installer les puces dans leurs propres centres de données, la majorité des développeurs restent dépendants de Google Cloud. De plus, la structure interne des TPU – basée sur un réseau en anneau et un échange optique – diffère radicalement de celle des GPU d’NVIDIA. Même si des frameworks comme PyTorch peuvent fonctionner dessus, cela nécessite des couches de conversion qui ajoutent une charge technique et une complexité de développement. Et surtout, NVIDIA domine le logiciel : CUDA est devenu la norme mondiale, utilisée par des millions de développeurs. Le logiciel TPU de Google, bien qu’interopérable, reste encore marginal. Face à cette pression, NVIDIA n’est pas inactif. Après l’annonce d’un possible partenariat Google-Meta, l’entreprise a promis un investissement de 100 milliards de dollars à OpenAI, et des dizaines de milliards à Anthropic, en échange d’engagements à utiliser ses puces. Elle a aussi signé un accord de 30 milliards de dollars avec Microsoft pour fournir du calcul Azure à Anthropic. Dans un communiqué, NVIDIA a déclaré : « Nous nous réjouissons du succès de Google dans l’IA, et continuerons à les approvisionner. Mais nous restons en avance d’un cycle entier. Nous sommes le seul fournisseur capable d’exécuter tous les modèles, partout, avec une performance, une généralité et une portabilité inégalées. » Ces déclarations, bienveillantes en apparence, soulignent la supériorité perçue d’NVIDIA en termes d’écosystème. Pourtant, le marché n’est pas figé. Les acteurs majeurs – Google, Meta, Amazon, Microsoft – utilisent désormais plusieurs architectures en parallèle. Cette stratégie de « couverture » reflète une réalité : personne ne veut miser tout sur une seule technologie. Pour Google, la montée en puissance des TPU n’est qu’un volet d’une transformation plus vaste. Ce qui impressionne désormais, c’est la capacité du géant à intégrer données, modèles, cloud et puces dans une stratégie cohérente. Après deux ans de reconfiguration, Google n’est plus le retardataire. Il est désormais un acteur central – et redoutable – dans la course mondiale à l’intelligence artificielle.

Liens associés

Google se réveille en force : TPU menace l’empire d’Nvidia, l’ère de l’IA en pleine redéfinition | Articles tendance | HyperAI