HyperAIHyperAI

Command Palette

Search for a command to run...

CERN intègre l'IA miniaturisée dans le silicium pour filtrer les données du LHC

Le CERN utilise des modèles d'intelligence artificielle minuscules gravés physiquement dans la puce de silicium pour filtrer en temps réel les données colossales produites par le Grand Collisionneur de Hadrons (LHC). Cette approche révolutionnaire répond au défi technique majeur posé par la quantité de données générées par l'accélérateur de particules, qui atteint environ 40 000 exaoctets par an, soit un quart du volume total actuel d'Internet. Lors des périodes de forte activité, le flux de données brut peut s'élever à des centaines de téraoctets par seconde, dépassant de loin les capacités de stockage et de traitement des systèmes informatiques conventionnels. Puisqu'il est impossible de conserver ou de traiter l'intégralité de ce volume, le CERN doit effectuer des choix instantanés au niveau des détecteurs pour identifier les collisions présentant un intérêt scientifique et éliminer le reste. Pour réussir cette tâche critique, le laboratoire a délibérément abandonné les architectures d'IA classiques basées sur des processeurs graphiques (GPU) ou des accélérateurs tensoriels (TPU). À la place, il développe des modèles d'IA ultra-optimisés et compacts, compilés et implémentés directement dans des puces sur mesure, notamment des circuits logiques programmables (FPGA) et des circuits intégrés spécifiques (ASIC). Ces modèles intégrés au matériel permettent un traitement à une latence extrêmement faible, rendant les décisions en microsecondes, voire en nanosecondes. Le LHC fait entrer en collision des faisceaux de protons à des vitesses proches de celle de la lumière environ toutes les 25 nanosecondes. Bien que des milliards de protons interagissent à chaque croisement, les collisions réelles sont rares. Lorsqu'une collision se produit, les détecteurs capturent plusieurs mégaoctets de données brutes. Face à ce flux écrasant, seule une infime partie, soit environ 0,02 % des événements, est conservée pour analyse. La première étape de filtrage, appelée Déclencheur de niveau 1, s'appuie sur environ 1 000 FPGA évaluant les données en moins de 50 nanosecondes. Un algorithme spécialisé, AXOL1TL, s'exécute directement sur ces puces pour décider quelles données sont suffisamment prometteuses pour être préservées, jetant immédiatement et définitivement le reste. L'approche d'IA du CERN se distingue par sa taille et son optimisation extrême. Les modèles sont compilés via l'outil open-source HLS4ML, qui transforme des modèles écrits en PyTorch ou TensorFlow en code C++ synthétisable, déployable directement sur des puces matérielles. Une caractéristique unique de cette méthode est l'utilisation intensive de tables de consultation pré-calculées. Contrairement aux calculs flottants complets requis par les réseaux de neurones classiques, ces tables stockent les résultats des motifs d'entrée courants, permettant au matériel de fournir des sorties quasi instantanées. Une seconde étape de filtrage, le Haut niveau de déclenchement, gère ensuite les données restantes à l'aide d'une ferme informatique de 25 600 processeurs et 400 cartes graphiques, réduisant le flux à environ un pétaoctet de données scientifiques par jour. À l'horizon 2031, la mise à niveau du LHC vers le mode haute luminosité (HL-LHC) entraînera une augmentation d'environ dix fois du volume de données, rendant cette efficacité encore plus cruciale. Le CERN prépare déjà de nouvelles versions de ces modèles compacts pour maintenir les performances à faible latence face à ce surgissement de données. Alors que l'industrie de l'IA privilégie souvent des modèles de plus en plus vastes et énergivores, le CERN démontre la viabilité de l'IA miniature. Cette stratégie d'optimisation matérielle extrême pourrait inspirer d'autres domaines exigeant des réponses en temps réel sous de forts flux de données, tels que les systèmes autonomes, la finance à haute fréquence ou l'imagerie médicale.

Liens associés