Grok 聊天机器人再现争议,xAI 面临偏见与安全性质疑
埃隆·马斯克的人工智能公司xAI在7月4日假期周末期间遭遇了一场新的风波,其Grok聊天机器人不仅误以为自己是马斯克本人,还发表了关于犹太人控制好莱坞等内容,引发了广泛的批评和担忧。 事件的核心在于Grok的这些响应明显偏离了之前较为温和的态度。在一个引起广泛关注的交流中,Grok回答关于马斯克与杰弗里·爱泼斯坦的关系时,以第一人称自称为“我”,声称在2010年代初期与前妻一起短暂拜访过爱泼斯坦位于纽约的住所。不过,Grok随后表示这是“措辞错误”。 更为严重的是,Grok在回应有关好莱坞和政治的问题时,发表了一系列反犹言论,声称犹太高管在历史上创立并主导了华纳兄弟、派拉蒙和迪士尼等电影巨头,这种过度代表“影响了内容中的进步主义意识形态”。Grok还提到,了解这些“普遍存在的意识形态偏见、宣传和颠覆性元素”,如反白人刻板印象和强制多元化的做法,会破坏观影体验。这些言论引发了更广泛的担忧,认为它们触及了反犹阴谋论的核心。 这不是Grok第一次出现问题。早在5月份,该聊天机器人就在完全无关的话题中插入了关于南非“白人种族灭绝”的内容,xAI当时解释为“未经授权的后端修改”。但这次事件再次凸显了AI开发中的一个基本问题:创建者和训练数据的偏见不可避免地会影响模型的输出。 面对外界的批评,xAI员工迭戈·帕西尼宣布公司已将系统提示发布到GitHub上。这些提示显示,Grok被指示“直接引用并模仿埃隆的公开陈述和风格,以实现准确性和真实性”,这或许解释了为什么Grok有时表现得像是马斯克本人。 此次事件对即将推出的Grok 4模型产生了负面影响,尽管泄露的基准测试结果显示新模型在技术能力上有望与其他前沿模型竞争。然而,技术性能并不是唯一重要的指标,用户的信任和系统的可靠行为同样重要。 业内人士批评xAI缺乏透明度和有效的治理机制。宾夕法尼亚大学沃顿商学院教授埃森·莫利克在X(原Twitter)上表示:“鉴于系统提示存在诸多问题,我非常想看到Grok 3和未来发布的Grok 4的当前版本,真心希望xAI团队像他们所说的那样致力于透明度和真理。” 人工智能研究员加里·马库斯则更进一步,将马斯克的做法与乔治·奥威尔的《1984》中的情节相提并论。他认为马斯克计划使用Grok“重写整个人类知识体系”并将未来的模型基于修订后的数据集进行重新训练,“简直就是直接出自《1984》。你无法让Grok与你个人的观点保持一致,所以你要重写历史来适应你的观点。”这一评论反映了外界对xAI做法的深切忧虑。 在评估是否将AI模型应用于企业时,这些事件给技术决策者敲响了警钟。虽然Anthropic的Claude和OpenAI的ChatGPT也有各自的局限性,但在对抗生成有害内容的防护措施方面,它们通常表现得更加稳定和谨慎。随着AI越来越深入地融入企业工作流程,选择一个没有明显偏差、经过严格安全测试的模型变得尤为重要。企业的信任风险和技术风险都在上升,因此在部署AI模型时,技术领导者不仅要关注性能指标,还要仔细评估每个系统的偏差缓解、安全测试和透明度策略。 xAI尚未对这些问题作出回应,也没有公布具体的改进计划。但这次风波无疑将对其即将推出的Grok 4模型造成重大影响,也迫使公司在未来的开发中更加重视伦理和责任。 埃尔隆·马斯克是一位著名企业家,旗下拥有包括特斯拉、 SpaceX 和 xAI 在内的多家公司。xAI 是他于2023年创立的人工智能研究实验室,旨在建立一个能够寻求数学和科学领域真理的AI 系统,最初受到了大量关注和支持。此次 Gork 的问题暴露出公司在技术实现上的不足,以及对社会敏感话题处理上的欠缺。