HyperAIHyperAI

Command Palette

Search for a command to run...

CERN がリアルタイムデータフィルタリングにシリコン埋め込み型 AI 小規模モデルを採用

ヨーロッパ素粒子物理学研究所(CERN)は、大型ハドロン衝突型加速器(LHC)で発生する膨大なデータをリアルタイムで選別するため、シリコンチップに物理的に焼結された超小型の人工知能(AI)モデルを活用する新たなアプローチを確立しました。LHC では年間約 4 兆ペタバイト(現在のインターネットデータの約 4 分の 1 相当)という膨大なデータが生成され、ピーク時には毎秒数百テラバイトに達します。既存のストレージやコンピューティングシステムでは全データを保存・処理することが物理的に不可能であるため、検出器レベルでマイクロ秒、あるいはナノ秒単位での即座の判断が求められます。CERN は従来の GPU や TPU に頼るのではなく、カスタムファームウェア可能ゲートアレイ(FPGA)や特定用途向け集積回路(ASIC)といったハードウェアに直接実装される、極めて小型で最適化された AI モデルを開発しました。 LHC のトンネル内では、約 25 ナノ秒ごとに陽子ビームが衝突しますが、その中で科学的に価値のある事象は約 0.02% に過ぎません。この選別を行う第一工程「レベル 1 トリガー」は、約 1,000 基の FPGA 上で動作する「AXOL1TL」という専用アルゴリズムにより、50 ナノ秒以内に入力データを解析し、重要な事象のみを保存します。他の大部分のデータは即時に廃棄されます。この AI モデルは、オープンソースツール「HLS4ML」を用いて PyTorch や TensorFlow で記述されたモデルをハードウェアに依存可能な C++ コードに変換し、FPGA や ASIC 上に展開されます。従来の汎用 AI と異なり、これらのモデルは神経網の層自体よりも、よく使われる入力パターンの結果を事前に記録した参照テーブルの構築にリソースを割くことで、浮動小数点計算を回避し、ナノ秒スケールの超低遅延を実現しています。 データ選別の第二段階「ハイレベルトリガー」は、25,600 基の CPU と 400 基の GPU を備える地上の計算ファームで処理され、最終的に毎日約 1 ペタバイトの科学的に価値あるデータに集約されます。2031 年の稼働予定である高輝度 LHC へのアップグレードにより、データ量は現在より 10 倍に増大すると予想されています。これに対処するため、CERN は次世代の超小型 AI モデルとハードウェア実装のさらなる最適化をすでに進行中であり、データ量の劇的な増加下でも極めて低い遅延での事象選別を維持する準備を進めています。 この取り組みは、規模を拡大し続ける一般的な大規模言語モデルとは対照的に、ハードウェアに埋め込まれた「超小型 AI」の可能性を実証しています。ナノ秒単位での判断が求められる過酷な環境において、これらのコンパクトなモデルは従来型のアクセラレーターでは達成不可能な性能を発揮します。自律システム、高頻度取引、医療画像、航空宇宙など、大規模データストリームをリアルタイムで処理する必要のある他の分野でも、このハードウェア指向の AI 設計思想は、計算資源とエネルギー効率の向上に大きな影響を与える可能性を秘めています。

関連リンク