HyperAIHyperAI

Command Palette

Search for a command to run...

AI Agent 面临安全漏洞风险

谷歌新研究揭示了人工智能代理(AI Agent)存在六大类以前未曾出现的安全漏洞。随着具备网络浏览等计算机操作能力的智能体普及,其攻击面急剧扩大。研究团队提出了一套分类法,将漏洞按其在智能体运作循环中的位置进行划分。 首先是网络作为动态攻击面,恶意弹窗可诱导智能体点击。其次是语义操纵,通过注入特定短语诱导模型产生偏见,或利用红队测试伪装恶意请求。第三类涉及认知状态,包括检索增强生成知识库投毒、潜伏记忆植入以及上下文学习陷阱,攻击者无需训练权限即可通过智能体自身的记忆写入功能植入后门。 行为控制类漏洞允许攻击者通过间接注入,如在网页、邮件或文档中隐藏指令,劫持智能体执行非授权操作,甚至控制其子代理。统计显示,此类攻击在文件窃取任务中成功率超过八成。 系统性与人机交互陷阱则利用模型同质化导致批量失效,或通过攻击人类审核员引发“批准疲劳”,利用人类对智能体摘要的信任绕过安全审查。谷歌专家指出,防御措施必须与智能体的运作循环相匹配,单一环节的防护无法应对全链路的复杂攻击。 尽管部分系统性漏洞目前尚属理论风险,但该研究为行业提供了共同的安全防御词汇。研究人员强调,完全自主的智能体风险极高,应引入可控的自主性机制。这一分类体系将成为未来构建安全防御架构的重要参考,帮助开发者针对性地设计护栏,确保人工智能应用的安全落地。

相关链接