HyperAIHyperAI

Command Palette

Search for a command to run...

AI引发安全危机:多数公司缺乏应对人才

人工智能正带来前所未有的安全挑战,而大多数企业尚未配备应对这些风险的合适人才。AI安全研究员桑德·舒尔霍夫(Sander Schulhoff)在最新一期《伦尼播客》中指出,传统网络安全团队在应对AI系统失效时存在明显短板。 舒尔霍夫是早期提示工程指南的撰写者之一,长期关注AI系统漏洞。他强调,当前许多组织缺乏既懂AI又懂安全的复合型人才。传统安全团队习惯于修复已知漏洞和补丁,但AI系统并非如此运作。“你可以修补一个程序漏洞,但你无法‘修补’一个大脑,”他比喻道。AI的失败往往源于逻辑欺骗、提示操控或上下文误导,而非代码缺陷,这与传统安全思维存在根本差异。 他指出,许多安全人员在审查AI系统时,只关注技术层面的错误,却忽视了“如果有人通过语言诱导AI生成恶意内容会怎样”这一关键问题。AI系统可通过自然语言指令被操控,其风险远超传统软件。例如,一个AI模型可能被诱导生成具有破坏性的代码,而具备跨领域知识的安全专家会立即采取隔离措施,如在容器中运行输出,防止其影响系统其他部分。 舒尔霍夫认为,AI安全与传统安全的融合,正是未来安全人才的核心方向。他同时警示,当前大量AI安全初创公司宣传的“全场景防护”“自动红队测试”等工具,大多夸大其词。由于AI的攻击面极广,任何声称“万能防护”的产品都是不切实际的。他预测,这一领域将经历市场洗牌,许多所谓“智能防护”公司终将因无法兑现承诺而退出。 近年来,AI安全成为投资热点。谷歌以320亿美元收购网络安全公司Wiz,正是为强化其云安全能力。谷歌CEO皮查伊表示,AI正带来“新型风险”,尤其在多云和混合架构日益普及的背景下,企业亟需能跨平台、全链路保护的新型安全方案。随着AI安全问题持续暴露,市场对真正有效、可落地的解决方案需求正不断上升。

相关链接

AI引发安全危机:多数公司缺乏应对人才 | 热门资讯 | HyperAI超神经