NVIDIA dévoile DGX Spark et DGX Station : des supercalculateurs desktop pour faire tourner des modèles IA open-source de 100 milliards à 1 trillion de paramètres
NVIDIA a dévoilé au CES 2025 les systèmes DGX Spark et DGX Station, des supercalculateurs de bureau conçus pour permettre aux développeurs d’exécuter les derniers modèles d’intelligence artificielle open-source et frontier directement sur leur poste de travail. Grâce à l’architecture NVIDIA Grace Blackwell, ces systèmes offrent une mémoire unifiée de grande capacité et des performances IA de l’ordre du petaflop, permettant de faire fonctionner des modèles allant jusqu’à 100 milliards de paramètres sur DGX Spark et jusqu’à 1 trillion sur DGX Station. Ces appareils s’inscrivent dans une stratégie visant à déplacer le calcul IA vers le bord (edge), en offrant aux développeurs une puissance de calcul de centre de données à leur bureau. Le DGX Spark, basé sur l’architecture Blackwell avec le format de données NVFP4, permet une compression des modèles jusqu’à 70 % sans perte de précision, boostant ainsi les performances. Il est préconfiguré avec les logiciels NVIDIA AI et les bibliothèques CUDA-X, offrant une expérience plug-and-play pour les développeurs, chercheurs et data scientists. Il prend en charge les frameworks et modèles open-source les plus récents, notamment les nouveaux modèles Nemotron 3 de NVIDIA. Une collaboration clé avec le projet llama.cpp a permis d’obtenir une accélération moyenne de 35 % sur les modèles d’IA, avec un gain notable en temps de chargement des LLM. Le DGX Station, quant à lui, intègre le superchip GB300 Grace Blackwell Ultra avec 775 Go de mémoire cohérente en précision FP4, permettant d’exécuter des modèles de 1 trillion de paramètres, tels que Kimi-K2 Thinking, DeepSeek-V3.2, Mistral Large 3, Meta Llama 4 Maverick, Qwen3 ou gpt-oss-120b. Cette capacité a suscité l’enthousiasme de la communauté open-source : Kaichao You, contributeur principal de vLLM, souligne que DGX Station permet de tester et développer des fonctionnalités spécifiques au GB300 à moindre coût, accélérant ainsi les cycles de développement. Jerry Zhou, contributeur de SGLang, estime que le système permet de servir des modèles très volumineux comme Qwen3-235B, de tester des cadres d’entraînement ou de développer des noyaux CUDA à grande échelle, tout en restant local. Les démonstrations en direct au CES mettent en évidence l’efficacité de ces systèmes dans divers domaines. Pour les créateurs, le DGX Spark accélère jusqu’à 8 fois les tâches de génération vidéo par rapport à un MacBook Pro M4 Max, en exploitant des modèles comme FLUX.2, FLUX.1 et Qwen-Image, désormais optimisés pour NVFP4. L’outil de modding RTX Remix, en cours de développement, permettra aux artistes 3D d’automatiser la création d’actifs via l’IA. Des démonstrations montrent aussi l’intégration de l’IA locale dans des robots comme Reachy Mini, transformant les agents IA en entités physiques capables de voir, écouter et interagir. Des partenaires comme Hugging Face, IBM, JetBrains et will.i.am, via son véhicule TRINITY, valident l’importance de l’IA locale. Hugging Face met en avant la possibilité de créer des agents IA interactifs, tandis qu’IBM et JetBrains soulignent la sécurité, le contrôle des données et la flexibilité des déploiements. Des playbooks complets sont désormais disponibles pour accélérer l’adoption, couvrant des sujets allant de la robotique à l’analyse financière, avec des mises à jour régulières. Les DGX Spark sont disponibles dès maintenant via des partenaires comme Acer, Dell, HP, Lenovo, ASUS, et les systèmes DGX Station seront disponibles à partir du printemps 2026. NVIDIA AI Enterprise est également disponible pour les deux systèmes, avec des licences prévues pour fin janvier. Ces solutions marquent une avancée majeure vers une IA plus accessible, sécurisée et performante au bureau.
