HyperAIHyperAI

Command Palette

Search for a command to run...

AIがハードウェアトロイの作成を容易に、研究で警告

ニューヨーク大学Tandon工学部の研究チームが、広く利用可能な人工知能(AI)ツールがコンピュータチップの設計コードに悪意ある欠陥を隠す手段として悪用され得ることを明らかにした。この研究は、IEEE Security & Privacyに掲載され、AIのハードウェア分野におけるリスクの深刻さを警告している。 研究では、チャットGPTのような大規模言語モデル(LLM)が、ハードウェアトロイの生成を容易にすると判明した。ハードウェアトロイとは、チップ内部に隠された悪意ある改変で、機密情報の漏洩やシステムの停止、不正アクセスを引き起こす可能性がある。研究チームは、NYUのサイバーセキュリティイベント「CSAW」の一環として2年間にわたり「AIハードウェア攻撃チャレンジ」を実施。参加者は、オープンソースのRISC-Vプロセッサや暗号処理回路などの設計コードに、AIを使って攻撃可能な脆弱性を仕込むことを求められた。 結果、AIを活用したチームの多くが、非常に高度な攻撃を実現。特に、AIが自らコードを分析し、脆弱な場所を特定して自動的にトロイを挿入する仕組みを構築したチームが最も効果的だった。一部のチームは、AIに「学術的な実験」として悪意あるコードを生成させるプロンプトを工夫し、AIのセーフガードを回避。また、英語以外の言語でリクエストすることでフィルタリングを回避する手法も確認された。 最も懸念されたのは、初心者やハードウェア知識が少ない大学生チームが、中程度から高レベルの脆弱性を成功裏に作成した点だ。これにより、AIの普及が「悪意ある攻撃の門戸を大幅に下げる」可能性が浮き彫りになった。 さらに深刻なのは、チップは製造後、修正が不可能な点。ソフトウェアのようにアップデートで対応できず、欠陥がある場合は物理的な交換が必要になる。この永久性が、潜在的な被害を極めて重大なものにしている。 研究チームは、AIがチップ設計の効率化に貢献する一方で、攻撃の手段としても悪用され得ることを強調。同様の研究で「Chip Chat」プロジェクトでAIがプロセッサ設計を支援した経緯があるが、今回の結果はその「二面性」を示している。今後は、AIの安全な利用を守るための強化されたガードレールと、ハードウェアの検証・セキュリティ解析ツールの開発が急務だと結論づけている。

関連リンク

AIがハードウェアトロイの作成を容易に、研究で警告 | 人気の記事 | HyperAI超神経