HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 2 mois
NVIDIA
GPU
AMD

Nvidia met à jour sa roadmap : CPU Rosa et GPUs Feynman empilés

Lors de sa conférence GPU Technology Conference, Nvidia a dévoilé une mise à jour majeure de sa feuille de route pour les centres de données, confirmant un calendrier serré d'innovations jusqu'en 2028. Le PDG Jensen Huang a présenté une stratégie divisée en deux phases distinctes : des améliorations quantitatives par l'augmentation de la densité des puces en 2027, suivies de sauts qualitatifs avec de nouvelles architectures en 2028. Pour 2027, Nvidia prévoit le lancement des accélérateurs Rubin Ultra, équipés de quatre puces de calcul et d'une mémoire HBM4E d'une capacité de 1 térabit, offrant une performance nettement supérieure à la génération actuelle. Ces puces s'associeront aux LPU LP35 de Groq, supportant le format de données NVFP4 pour optimiser l'IA. À l'échelle du rack, la solution Kyber NVL144 permettra d'assembler 144 blocs GPU via un commutateur NVLink 7, multipliant par quatre la puissance par rapport à la configuration précédente Oberon NVL72. La véritable révolution arrive en 2028 avec l'architecture Feynman et le processeur Rosa. Feynman marquera l'adoption de l'empilement de puces (die stacking) pour surpasser les limites physiques actuelles, couplé à une mémoire haute bande passante personnalisée dépassant potentiellement le térabit par puce. Parallèlement, Rosa, le nouveau CPU d'architecture unique de Nvidia, visera une performance mono-cœur ultime. Le développement accéléré de Rosa, réduit de quatre ans à deux, place désormais Nvidia au niveau des leaders comme AMD et Intel. L'intégration s'approfondit avec la LPU LP40, qui unira l'échelle de Nvidia à l'expertise de Groq, tout en utilisant le protocole NVLink pour une connectivité fluide. Point capital, 2028 verra l'introduction de commutateurs NVLink intégrant l'optique co-packagée (CPO). Cette technologie rendra les connexions optiques plus simples et moins coûteuses, permettant d'augmenter drastiquement la taille des grilles de calcul. Nvidia prévoit ainsi de scaler jusqu'à 576 puces avec des chassis Oberon et jusqu'à 1 152 puces avec des chassis Kyber, renforçant sa compétitivité face aux solutions concurrentes comme les puces Instinct d'AMD ou les accélérateurs personnalisés des hyperscalers. Cette nouvelle génération inclura également le DPU BlueField 5, la 7e génération de réseau SpectrumX avec optique co-packagée et le SuperNIC ConnectX 10. Ces annonces confirment la détermination de Nvidia à maîtriser l'ensemble de la pile technologique, de la mémoire et des processeurs aux interconnexions optiques, pour dominer le marché de l'IA sur les années à venir.

Liens associés

Nvidia met à jour sa roadmap : CPU Rosa et GPUs Feynman empilés | Articles tendance | HyperAI