NVIDIA et l’Université du Wisconsin lancent Sirius : un moteur SQL accéléré par GPU qui bat tous les records sur ClickBench
NVIDIA collabore avec l’Université du Wisconsin-Madison pour intégrer l’accélération par GPU dans DuckDB via le moteur open source Sirius, une solution conçue pour tirer parti de la puissance des GPU tout en préservant la simplicité et l’efficacité de DuckDB. Ce dernier, adopté par des géants comme DeepSeek, Microsoft et Databricks, s’impose comme une référence en matière d’analytique rapide et polyvalente. Face à l’essor des charges de travail analytiques, hautement parallélisables, les GPU se révèlent être une alternative performante, à la fois plus rapide et plus rentable à long terme que les processeurs CPU. Cependant, le développement d’un système de base de données entièrement conçu pour les GPU reste un défi technique majeur. Sirius répond à cette problématique en offrant un backend d’exécution natif GPU, intégrable de manière transparente à DuckDB, sans modification du code de base. Conçu comme une extension DuckDB, Sirius repose sur l’architecture modulaire et composable, en réutilisant les composants avancés de DuckDB — parseur, optimiseur, opérateurs de lecture — tout en accélérant l’exécution des requêtes via des bibliothèques NVIDIA CUDA-X, notamment cuDF. Le moteur reçoit les plans de requête au format Substrait, garantissant une interopérabilité avec d’autres systèmes. Lors d’un traitement, les données sont d’abord chargées en mémoire hôte grâce aux fonctionnalités de DuckDB (filtrage min-max, saut de zones, décompression en temps réel), puis converties dans un format compatible GPU (proche d’Apache Arrow) et transférées sur la mémoire GPU. Les opérations SQL — agrégations, projections, jointures — s’exécutent ensuite à vitesse GPU via des primitives cuDF, avec un transfert final des résultats vers le CPU pour une restitution au format attendu. Sur le benchmark ClickBench, Sirius, exécuté sur une instance NVIDIA GH200 Grace Hopper Superchip (Lambda Labs, 1,50 $/heure), a battu tous les systèmes concurrents, dont des solutions CPU sur AWS (7,3 à 9,8 $/heure). En termes de performance relative, Sirius a obtenu le meilleur score global, avec une efficacité coût-à-performance au moins 7,2 fois supérieure. Sur des requêtes individuelles, des gains significatifs ont été observés, notamment sur les opérations de filtrage, projection et agrégation (q4, q5, q18). Des points d’optimisation restent cependant à améliorer, comme les opérations de chaîne de caractères (q23), les opérateurs top-N (q24, q26) ou les agrégations sur de grands volumes (q27). Pour la requête q28, dédiée aux expressions régulières, Sirius a mis en œuvre un cadre JIT-compile de transformations de chaînes via cuDF, permettant un gain de 13x par rapport à l’API prédéfinie, avec une occupation de warp passant de 32 % à 85 %, grâce à une meilleure localité des données et une pression réduite sur les registres. À l’avenir, NVIDIA et l’Université du Wisconsin-Madison s’engagent à développer des composants fondamentaux, conformes aux principes MICE (modulaires, interopérables, composites, extensibles), pour faciliter la construction d’engins d’analytique GPU. Ce travail vise à accélérer l’adoption de l’ère GPU dans l’écosystème open source. Sirius, sous licence Apache-2.0, est open source et ouvert à la contribution de la communauté. Il s’inscrit dans une vision de transformation de l’analytique, en rendant l’accélération GPU accessible, fiable et intégrable à tout système de traitement de données. Évaluation : Des experts du secteur soulignent que Sirius représente une avancée majeure dans l’interopérabilité entre écosystèmes CPU et GPU. Son architecture modulaire et son utilisation de bibliothèques matures comme cuDF réduisent considérablement les barrières d’entrée pour les développeurs. L’approche par extension, plutôt que par reconstruction, montre que l’innovation peut s’inscrire dans des systèmes existants sans sacrifier la performance. Les résultats sur ClickBench, combinés à une efficacité coût-à-performance remarquable, positionnent Sirius comme un pilier clé de l’analytique GPU future. Les entreprises comme Lambda Labs et les fournisseurs cloud pourraient rapidement intégrer Sirius dans leurs offres, accélérant ainsi la transition vers des infrastructures analytiques hybrides et GPU-native.
