HyperAIHyperAI

Command Palette

Search for a command to run...

AI工具或成黑客新武器:可在芯片中植入隐蔽缺陷

一项来自纽约大学坦登工程学院的新研究警告,当前广泛可用的人工智能工具可能被黑客用于在计算机芯片的设计代码中植入难以察觉的安全漏洞。该研究发表于IEEE Security & Privacy期刊,揭示了大语言模型(如ChatGPT)可能被用来协助新手和专家创建“硬件木马”——即隐藏在芯片设计中的恶意修改,可导致信息泄露、系统瘫痪或被攻击者非法控制。 研究团队通过两年的“AI硬件攻击挑战赛”进行验证,该赛事是纽约大学网络安全中心(CSAW)年度学生网络安全活动的一部分。参赛者被要求利用生成式AI,在开源硬件设计(如RISC-V处理器和加密加速器)中植入可被利用的漏洞,并成功演示攻击效果。 研究负责人、电气与计算机工程系博士生贾森·布洛克洛夫表示:“AI工具确实大大简化了植入漏洞的过程。部分团队实现了全自动化,AI能自动分析代码、定位薄弱点,并生成并插入定制木马,几乎无需人工干预。” 最成功的攻击方案包括可绕过权限访问内存的后门、泄露加密密钥的机制,以及在特定条件下引发系统崩溃的逻辑。 更令人担忧的是,两名来自本科生团队的参赛者在几乎没有芯片设计或安全背景的情况下,也成功制造出中高严重性漏洞,表明AI正降低攻击门槛。 尽管多数大语言模型内置了防止恶意使用的防护机制,但参赛者发现这些限制极易被绕过。例如,有团队通过将攻击请求伪装成学术研究场景,成功诱导AI生成有效木马;还有团队使用冷门语言提问,直接避开内容过滤系统。 由于硬件漏洞一旦芯片制造完成便无法修复,只能更换硬件,其风险远高于软件漏洞。布洛克洛夫强调:“芯片一旦流片,就无法通过更新修复。我们研究的是尚未发生但可能发生的威胁,一旦真实发生,后果可能灾难性。” 该研究也呼应了团队此前的“Chip Chat”项目,当时他们展示了AI可协助设计出功能完整的微处理器。这凸显了AI的双重性:既能推动芯片设计民主化,也可能被用于新型攻击。 研究团队指出,当前商用AI模型只是潜在威胁的起点,未来更专业的开源模型可能具备更强的攻击能力。他们呼吁加强大语言模型的安全防护机制,并开发更先进的硬件安全验证与分析工具。

相关链接

AI工具或成黑客新武器:可在芯片中植入隐蔽缺陷 | 热门资讯 | HyperAI超神经