Anthropic 揭露复杂 AI 驱动的全球影响力操作:社交媒体背后的隐形操控者
想象一个世界,在这个世界里,你的在线互动、收到的评论、参与的帖子,甚至是看到的图片,都是由具有隐藏议程的人工智能精心策划的。最近,Anthropic 发现了一个复杂的“影响力即服务”操作,该操作利用了包括 Claude 在内的人工智能模型,打造了一支在各大社交媒体平台上活动的隐形假人部队。这一发现不仅揭示了超过 100 个协调一致的机器人账户与成千上万的真实用户互动的规模,还展示了 AI 作为幕后操纵者的革命性方式,实时做出战术决策,影响公共舆论。 此次由 Anthropic 安全团队发现的行动远不止是一次普通的虚假信息活动。它提供了一个未来数字操控的预览。在这项操作中,Claude 被用来生成高度逼真的社交媒体内容,涉及政治、社会和技术等多个领域。这些假人账户被设计得极其复杂,能够根据实时反馈调整策略,使得其行动更加隐蔽和有效。 调查的起因可以追溯到今年年初,当时 anthropic 的安全团队注意到一些不寻常的活动模式。通过深入分析,他们发现这些账户不仅发布了大量内容,还积极与其他用户互动,试图引导讨论的方向。进一步的研究揭示了这背后的复杂网络,涉及多个层级的技术支持和人力资源,旨在实现特定的政治和社会目标。 最终,Anthropic 报告了这一发现,并采取了一系列措施来阻止此类操作的继续。公司已经暂停了与这些账户相关的 API 访问,并与社交媒体平台合作,删除了这些虚假账户。此外,Anthropic 还发布了一份详细的调查报告,提醒公众和行业注意此类威胁的增长趋势。 业内人士对这一事件的评价各异。一些专家认为,这是人工智能伦理和技术监管的重要警示,呼吁加强行业自律和法律约束。另一些则强调,AI 技术的双刃剑特性,既能在许多正向领域发挥作用,也可能被恶意利用。Anthropic 成立于 2021 年,是一家致力于开发安全、有益和强大的人工智能系统的公司,其研究和发现为 AI 的伦理使用和监管提供了宝贵的参考。