HyperAI超神经
Back to Headlines

Reddit 对苏黎世大学 AI 机器人实验采取法律行动:研究人员被禁,操纵评论引发争议

16 小时前

上周末,r/changemymind 子论坛的用户发现他们已经被蒙蔽了数月。苏黎世大学的研究人员开展了一项研究,旨在调查大规模语言模型(LLMs)在自然网络环境中的说服力。为此,研究人员放出了一些伪装成 trauma 辅导员、反对“黑人的命也是命”运动的黑人男子以及性侵受害者的 AI 模拟角色。这些角色共发布了 1,783 条评论,并积累了超过 10,000 点的评论评分,直到被曝光才停止。 Reddit 的首席法律官 Ben Lee 表示,该公司正在考虑对这项“不正当且高度不道德”的实验采取法律行动,认为该实验在道德和法律层面上都是极为错误的。目前,苏黎世大学的涉事研究人员已被 Reddit 封禁。苏黎世大学已向 404 Media 声明,正在调查实验方法,并且即使研究显示 AI 在改变人们观点方面比人类高出三到六倍,他们也不会发布这一研究结果。 尽管实验的具体细节尚未经过同行评议,但根据网上仍可找到的部分研究,使用 GPT-4、Claude 3.5 Sonnet 和 Llama 3.1-405B 等语言模型,研究人员指导这些 AI 机器人通过分析目标用户的发帖历史来制定最有力的说服策略。实验过程中,研究人员还曾篡改某些内容,称用户已经给予了知情同意,这显然是不真实的。 404 Media 保存了这些被删除的评论记录。一些网友对这一研究表示惊叹,认为该结果证明了 AI 机器人在改变人们看法方面的表现远超真人。然而,不少批评者指出,这种专门设计用来心理剖析和操纵用户的行为,实际上并不能证明 AI 在其他环境下也能表现出相同的能力,因为它们是在非常特定的情况下运行的。 研究者们强调,他们的实验表明如果这类 AI 被恶意行为者利用,可能会“影响公众意见或操控选举干预活动”。他们呼吁在线平台必须积极开发并实施有效的检测机制、内容验证协议和透明度措施,以防止 AI 生成的操纵行为扩散。这种结论虽然令人警醒,但在一定程度上也显得缺乏反思。 业内人士普遍认为,尽管这一实验展示了 AI 在特定情境下的强大说服力,但其背后存在的伦理问题不容忽视。Reddit 作为全球知名的在线社区,一直以来都非常重视用户的安全和隐私。这次事件不仅破坏了社区的信任基础,也引发了关于AI 技术应用边界的广泛讨论。苏黎世大学在科学研究领域享有声誉,但这次事件无疑给其带来了负面影响。

Related Links