大型语言模型可自主发起完整勒索软件攻击:AI安全新威胁浮现
最新研究显示,大型语言模型(LLM)已能自主执行完整的勒索软件攻击,标志着勒索软件进入“3.0时代”。纽约大学坦登工程学院的研究团队在arXiv预印本平台发布论文,展示了一种名为“Ransomware 3.0”(也称“PromptLock”)的AI驱动恶意系统,可在无人干预的情况下完成从入侵到勒索的全部流程。 该系统通过AI生成攻击代码,自动完成四大步骤:扫描目标系统、识别高价值文件、加密或窃取数据,并生成个性化勒索信。研究团队在个人电脑、企业服务器和工业控制系统上进行了模拟测试,结果表明AI能高效识别敏感文件,准确率在63%至96%之间,且代码具备跨平台兼容性,可在Windows、Linux和Raspberry Pi等系统上运行。 与传统勒索软件依赖预编代码不同,该系统将攻击指令嵌入程序中,运行时通过调用开源大语言模型生成定制化Lua脚本。每次执行生成的代码都不同,使基于签名或行为特征的传统安全检测手段难以识别。这一特性让攻击更具隐蔽性,也极大增加了防御难度。 尽管该原型仅为实验室研究,尚未在真实网络中出现,但其在病毒分析平台VirusTotal上被安全公司ESET误认为真实恶意软件,引发行业警觉。研究团队强调,这说明AI生成的攻击已具备欺骗安全专家的能力,凸显其威胁严重性。 经济层面,该系统单次攻击仅消耗约2.3万个AI令牌,使用商业API成本不足0.7美元;若使用开源模型,成本几乎为零。这意味着技术门槛大幅降低,使缺乏专业技能的攻击者也能发动高级别攻击。同时,AI可依据窃取文件内容生成针对性勒索信息,增强心理压迫,提高赎金支付率。 研究团队在严格伦理规范下开展实验,已公开技术细节,旨在推动安全界提前应对。他们建议加强敏感文件访问监控、限制对外AI服务连接,并开发专门检测AI生成攻击行为的新机制。该研究为未来网络安全防御提供了关键预警和应对方向。
