HyperAIHyperAI

Command Palette

Search for a command to run...

CERN 采用刻录于芯片的微型 AI 模型实现 LHC 实时数据过滤

2026 年 3 月 28 日,欧洲核子研究组织(CERN)宣布,利用特制的超小型人工智能模型直接固化在硅芯片中,成功实现了对大型强子对撞机(LHC)海量数据的实时筛选。面对 LHC 每年约四万 EB 的庞大数据量,CERN 必须从每秒数百 TB 的原始信号中,在微秒甚至纳秒级时间内做出取舍,仅保留约万分之二具有科学价值的事件,其余数据将被永久丢弃。 为应对这一极限挑战,CERN 摒弃了传统的高功耗 GPU 或 TPU 方案,转而采用基于现场可编程门阵列(FPGA)和专用集成电路(ASIC)的“边缘硬件嵌入式”AI 架构。这些模型体积极小,通过开源工具 HLS4ML 将机器学习模型转化为可综合代码,直接烧录至芯片中。其核心创新在于利用大量预计算的查找表替代复杂的浮点运算,使得系统在纳秒级时间内即可输出结果,且功耗极低。目前,LHC 的一级触发系统由约 1000 块 FPGA 组成,运行着名为 AXOL1TL 的专用算法,而后续的高能级触发则由包含数万台 CPU 和 GPU 的超级计算农场处理。 随着 2031 年即将投入运营的高亮度 LHC 升级计划推进,数据量预计将激增十倍。CERN 正提前部署下一代超紧凑 AI 模型,以优化硬件实现并维持极高的筛选性能。这一“小型 AI"策略与当前全球追求超大模型的趋势背道而驰,证明了在极端环境下,通过硬件层面的极致优化和专业化设计,同样能实现超越通用加速器的性能。该成果不仅保障了粒子物理研究的持续突破,也为自动驾驶、高频交易及航空航天等领域提供了超高效实时计算的宝贵参考范式。

相关链接