HyperAIHyperAI

Command Palette

Search for a command to run...

La mémoire AI explose : les prix grimpent, les stocks sont épuisés jusqu’en 2026

La mémoire informatique est actuellement en rupture de stock à l’échelle mondiale, provoquant une hausse sans précédent des prix. Ce phénomène s’explique par la demande croissante de mémoire dynamique (RAM), notamment de type HBM (High-Bandwidth Memory), alimentée par l’essor des puces d’intelligence artificielle (IA) conçues par des géants comme Nvidia, AMD et Google. Trois fabricants dominent le marché : Micron, SK Hynix et Samsung Electronics, dont les bénéfices explosent face à cette demande. Sumit Sadana, responsable des affaires chez Micron, a déclaré à CNBC lors du salon CES de Las Vegas que la demande en mémoire avait augmenté de manière « très nette et significative », dépassant largement la capacité de production de l’industrie entière. Depuis un an, le cours de Micron a grimpé de 247 %, et son bénéfice net a presque triplé au dernier trimestre. Samsung prévoit une hausse de près de 300 % de son bénéfice opérationnel au quatrième trimestre, tandis que SK Hynix envisage une introduction en bourse aux États-Unis, son action grimpant fortement en Corée du Sud. En octobre, la société a déjà garanti la totalité de sa production de mémoire en 2026. Les prix de la mémoire DRAM devraient augmenter de 50 à 55 % au premier trimestre 2026 par rapport au quatrième trimestre 2025, selon TrendForce, qui qualifie cette hausse de « sans précédent ». Ce phénomène s’explique par la priorité donnée aux applications serveurs et aux puces d’IA. Les puces comme le Rubin de Nvidia, lancé récemment, intègrent jusqu’à 288 Go de HBM4, répartis en huit blocs visibles autour du GPU. Ce type de mémoire, plus performant que la RAM standard des smartphones ou des ordinateurs, est fabriqué en empilant 12 à 16 couches de mémoire sur une seule puce, formant une « boîte » tridimensionnelle. Pour chaque bit de HBM produit, Micron renonce à produire trois bits de mémoire classique, ce qui crée un rapport de trois à un entre les deux marchés. Les fabricants privilégient désormais les clients du secteur serveur, moins sensibles au prix, car la croissance de la demande dans l’IA est considérable. En octobre, Micron a même abandonné une partie de son activité destinée aux constructeurs de PC grand public pour libérer sa capacité de production. Des utilisateurs comme Dean Beeler, fondateur de Juice Labs, ont été choqués par la hausse : un kit de 256 Go de RAM, coûtant 300 dollars il y a quelques mois, pourrait désormais atteindre 3 000 dollars. Le « mur de la mémoire » – un goulot d’étranglement entre la puissance des GPU et la capacité de la mémoire – est devenu un enjeu majeur depuis l’essor des grands modèles linguistiques (LLM) à partir de 2022. Selon Sha Rabii, cofondateur de Majestic Labs, les anciens modèles d’IA nécessitaient moins de mémoire, mais les LLM actuels demandent des volumes massifs de données en temps réel, limitant les performances malgré des GPU de plus en plus rapides. Les entreprises comme Apple et Dell s’inquiètent : la mémoire représente désormais 20 % du coût matériel d’un ordinateur, contre 10 à 18 % en 2025. Dell prévoit une hausse de ses coûts et des prix au consommateur, malgré des ajustements de configuration. Même Nvidia, leader du marché, reconnaît que sa demande énorme exige la construction de nouvelles usines. Micron prévoit deux nouvelles usines (fabs) à Boise, Idaho, en 2027 et 2028, et une troisième à Clay, New York, en 2030. Pourtant, Sadana affirme : « Nous sommes déjà épuisés pour 2026. »

Liens associés