HyperAIHyperAI

Command Palette

Search for a command to run...

Google dévoile ses puces IA révolutionnaires : les TPUs menacent-elles la domination de Nvidia ?

Les TPUs (Tensor Processing Units) sont des puces matérielles conçues par Google spécifiquement pour accélérer les tâches d’intelligence artificielle, notamment l’entraînement et l’inférence de modèles de machine learning. Lancés il y a plus d’une décennie, ces processeurs ont été développés par une équipe menée par Jonathan Ross, aujourd’hui dirigeant de Groq, dans le but de répondre aux besoins croissants de Google en calcul intensif pour l’IA. Contrairement aux GPU d’Nvidia, initialement conçus pour le traitement graphique, les TPUs ont été pensés dès le départ pour l’IA, ce qui leur confère une efficacité supérieure dans certains cas. Ils utilisent une architecture appelée systolic array, permettant un flux continu de données à travers le chip, réduisant ainsi les délais liés à l’accès à la mémoire. La dernière génération, le TPU Ironwood, lancé en novembre, est plus de quatre fois plus performant que son prédécesseur pour l’entraînement et l’inférence. Google exploite ces puces à grande échelle pour ses propres produits — comme Search, Maps ou le modèle Gemini 3 — mais les loue également via son cloud, Google Cloud. Des entreprises comme Apple, Anthropic (qui a signé un accord pour utiliser jusqu’à un million de TPUs) et Broadcom (fournisseur des puces) ont déjà adopté ou investi dans cette technologie. Meta teste également les TPUs, bien que l’issue d’un éventuel partenariat reste incertaine. Un obstacle majeur à une adoption généralisée reste l’écosystème logiciel. Nvidia domine le marché grâce à CUDA, une plateforme logicielle universelle qui permet aux développeurs d’utiliser ses GPU pour des tâches non graphiques. Google, quant à lui, a longtemps privilégié son propre framework, TensorFlow, mais s’adapte désormais à la demande croissante envers PyTorch, le framework développé par Meta. Google accorde désormais davantage de ressources pour améliorer la compatibilité de ses TPUs avec PyTorch, un changement stratégique essentiel pour attirer de nouveaux clients. L’essor des TPUs pourrait transformer le paysage des puces d’IA. Morgan Stanley estime que Google pourrait vendre 5 millions de TPUs en 2027 et 7 millions en 2028, générant potentiellement 13 milliards de dollars de revenus par tranche de 500 000 unités. Cela renforcerait non seulement la position financière de Google, mais créerait aussi un cercle vertueux : l’usage interne des TPUs permet à Google d’améliorer ses modèles, qui à leur tour influencent le design des prochaines générations de puces. Néanmoins, Nvidia reste dominant, et les experts comme Jordan Nanos de SemiAnalysis estiment que les TPUs ne représentent pas une menace immédiate pour son leadership. Le marché évolue vers une diversification : les entreprises utilisent désormais plusieurs types de puces selon leurs besoins. Amazon a déjà lancé ses propres puces Trainium3, promettant une réduction de moitié des coûts d’entraînement. Ce contexte favorise une concurrence plus saine, où Google, Amazon et Nvidia coexistent, chacun apportant des avantages spécifiques. Le futur de l’IA ne dépendra pas d’un seul acteur, mais d’un écosystème hybride de puces spécialisées.

Liens associés

Google dévoile ses puces IA révolutionnaires : les TPUs menacent-elles la domination de Nvidia ? | Articles tendance | HyperAI