OpenClaw与Moltbook曝光引发安全界警觉
OpenClaw与Moltbook正引发科技圈热议,但安全研究人员已发出严重警告。OpenClaw(曾用名Clawdbot、Moltbot)是一款能在用户本地设备上运行的AI数字助理,可接入Telegram、WhatsApp等应用,实现自动管理日程等功能。然而,其需访问用户文件、密码、浏览器历史等敏感数据,带来显著安全风险。 安全专家指出,这类权限可能被“提示注入”攻击利用——恶意网页中的隐藏指令可能诱使AI泄露隐私或擅自发布内容。Palo Alto Networks警告,OpenClaw能“记忆”数周前的交互,若曾接触恶意指令,可能在后期执行,风险被进一步放大。 ESET全球安全专家Jake Moore表示,如此高权限访问会大幅增加数据泄露风险。Dvuln公司创始人Jamieson O'Reilly比喻称,这如同请管家打理生活,却回家发现大门敞开,任人随意进出。认知科学家Gary Marcus更直言:“OpenClaw简直就是个未加管控的危险武器。” 尽管开发者Peter Steinberger称正在加强安全防护,但尚未回应媒体问询。 另一款名为Moltbook的AI社交平台也引发关注。该平台允许AI代理在无真人参与的情况下“发帖”互动,灵感源自OpenClaw的早期命名。尽管两者无正式关联,但Moltbook多数代理基于OpenClaw构建,安全问题随之浮现。 O'Reilly在X平台指出,Moltbook曾暴露整个数据库,未设防护,任何人可冒充代理发帖。尽管创始人Matt Schlicht回应称问题已修复,但网络安全公司Wiz的测试显示,其数据库仅用不到3分钟即被攻破,导致3.5万封邮件地址及AI间私信泄露。Wiz称已通报,Moltbook在数小时内完成修复。 尽管前OpenAI联合创始人Andrej Karpathy曾称赞Moltbook“极具科幻感”,但他随后提醒,这更像是“失控的野地”,用户在使用中面临极高隐私与设备风险。 这些案例凸显了“ vibe coding”(氛围编程)模式的隐患——由AI快速构建应用,却缺乏代码审查与安全设计。专家建议用户若使用此类高权限AI代理,应运行于独立设备、严密监控,并意识到“风险永远无法归零”。毕竟,与传统应用商店审核机制不同,这类AI应用往往未经严格审查,用户习惯性信任可能带来严重后果。
