HyperAIHyperAI

Command Palette

Search for a command to run...

Big Tech’s capex surge is a mirage: la vraie croissance masquée par les prix folles de la mémoire

La croissance des investissements en capital (capex) de Big Tech pourrait être bien plus modérée qu'elle n'y paraît. Bien que les chiffres officiels semblent indiquer une expansion sans précédent, une analyse récente des analystes de RBC Capital Markets révèle que cette croissance est en grande partie gonflée par une hausse spectaculaire des prix des composants, notamment la mémoire. Amazon, Google, Meta et Microsoft devraient dépenser près de 600 milliards de dollars cette année pour des centres de données, des puces, des réseaux et d'autres équipements liés à l’intelligence artificielle. À première vue, cela donne l’image d’un déploiement accéléré sans précédent. Pourtant, selon RBC, cette impression est biaisée par une forte augmentation des prix des mémoires utilisées dans les centres de données — notamment la DRAM, la mémoire haute bande passante (HBM) et la mémoire flash NAND. L’analyse montre que ces hausses de prix pourraient expliquer près de 45 % de la croissance des dépenses en capital pour les centres de données d’ici 2026. En réalité, les entreprises ne sont pas en train d’acheter massivement plus de matériel : elles paient simplement bien plus cher pour les mêmes composants. RBC estime que les dépenses en mémoire des dix plus grands hyperscaleurs passeront de 107 milliards de dollars en 2025 à environ 237 milliards en 2026. Cette augmentation de 130 milliards de dollars représente près de la moitié de la croissance totale des capex. Ce qui est encore plus frappant, c’est que près des trois quarts de cette hausse — soit environ 98 milliards de dollars — s’expliquent uniquement par une augmentation des prix, et non par une augmentation des volumes achetés. Les prévisions de TrendForce, citées par RBC, indiquent que les prix de la DRAM pourraient plus que doubler en 2026, tandis que ceux de la NAND devraient augmenter de plus de 85 %. Cette tension sur le marché de la mémoire est due à la forte demande liée à l’IA : les puces graphiques avancées (GPU) nécessitent de grandes quantités de DRAM et HBM à haute performance, tandis que les centres de données d’IA consomment énormément de stockage flash. La mémoire est désormais l’un des éléments les plus limités dans la chaîne d’approvisionnement de l’infrastructure IA. Si l’on retire les coûts de mémoire de l’équation, la croissance des capex apparaît bien moins spectaculaire. En l’absence de ces dépenses, la croissance des investissements serait ramenée à environ 40 % en 2026, contre près de 80 % en 2025. Un chiffre encore élevé, mais nettement moins explosif que les données brutes suggèrent. Les analystes de RBC qualifient cette évolution de « décélération notable », tout en précisant qu’elle « n’est pas nécessairement préoccupante ». Ils soulignent que l’investissement fondamental dans l’IA reste solide, mais mettent en garde : le prix de la mémoire est désormais le principal facteur d’incertitude pour les tendances de capex en 2027. En somme, Big Tech pourrait bien dépenser bien plus sans construire proportionnellement davantage d’infrastructure, car la course à l’IA entre en collision avec un marché de la mémoire surchauffé.

Liens associés

Big Tech’s capex surge is a mirage: la vraie croissance masquée par les prix folles de la mémoire | Articles tendance | HyperAI