Kioxia révolutionne le stockage avec un module flash 5TB à 64 Go/s, une nouvelle ère pour les GPU IA
Kioxia a présenté un prototype de module de mémoire flash haute bande passante de 5 To avec une capacité de 64 Go/s, une innovation qui place la technologie NAND plus près de la mémoire vive dans les systèmes d’IA. Ce module, baptisé High Bandwidth Flash (HBF), repense l’architecture mémoire en combinant la capacité massive de la mémoire flash NAND à une bande passante proche de celle des mémoires HBM (High Bandwidth Memory), tout en offrant 8 à 16 fois plus de capacité que les HBM basées sur la DRAM. Conçu pour les GPU d’IA, ce prototype exploite la norme PCIe 6.0 avec 16 voies (x16), permettant théoriquement jusqu’à 128 Go/s bidirectionnels, tandis que le module atteint 64 Go/s, laissant une marge suffisante pour la correction d’erreurs et les surcharges. La performance est rendue possible grâce à l’utilisation du modulation PAM4 (Pulse Amplitude Modulation à quatre niveaux), qui double la vitesse de transmission par symbole par rapport à la méthode NRZ traditionnelle, bien que plus sensible au bruit. Kioxia a compensé cette vulnérabilité par des techniques avancées d’égalisation, de correction d’erreurs (ECC) et de pré-émphasis, conformes aux exigences du PCIe 6.0. Bien que la latence reste supérieure à celle de la DRAM (dans les dizaines de microsecondes contre quelques centaines de nanosecondes pour HBM), des stratégies comme le préchargement intelligent et le cache contrôleur réduisent l’impact sur les charges de travail séquentielles, notamment pour les grands jeux de données d’IA, les points de contrôle ou les analyses de graphes. Un autre avantage clé est la faible consommation énergétique : moins de 40 W par module, ce qui représente une efficacité énergétique nettement supérieure aux SSD PCIe 5.0 actuels (jusqu’à 15 W pour 14 Go/s). Cette réduction de la consommation par Go/s est cruciale dans les centres de données hyperscalables, où les clusters H100 déjà très gourmands en énergie nécessitent une optimisation à tous les niveaux. Le module ouvre aussi de nouvelles possibilités architecturales : grâce à des contrôleurs en chaîne (daisy-chained), l’ajout de modules ne consomme pas de bande passante supplémentaire, permettant une montée en puissance linéaire. Un ensemble de 16 modules pourrait atteindre 80 To de capacité et plus de 1 To/s de débit, des performances autrefois réservées aux systèmes de fichiers parallèles ou aux mémoires tampon DRAM. Ce prototype s’inscrit dans une stratégie plus large de Kioxia, qui explore depuis plusieurs années les SSD à longue portée et les liens flash GPU direct (comme avec Nvidia pour les drives XL-Flash). Ses récentes extensions de fabrication au Japon reflètent une anticipation d’une croissance de la demande en flash de près de 300 % d’ici 2028. Bien que le prototype reste à l’état expérimental — avec des questions ouvertes sur les performances en charge aléatoire, l’impact de l’ECC sur la latence ou les résultats réels en formation d’IA —, il marque une évolution majeure : la mémoire flash n’est plus seulement un stockage lent, mais un composant stratégique proche du calcul. Des experts du secteur soulignent que cette avancée pourrait redéfinir la hiérarchie mémoire dans les datacenters, où le stockage pourrait concurrencer les GPU pour la bande passante. Si Kioxia parvient à industrialiser cette technologie, la prochaine génération d’infrastructures d’IA pourrait voir les modules de mémoire flash intégrés directement dans le flux de données, transformant le rôle de la mémoire non volatile.
