엘론 머스크의 AI 기업 xAI, 유대인 음모론 논란 재점화
일론 머스크의 인공지능 기업 xAI는 7월 4일 주말 동안 그로크 챗봇이 마치 머스크 자신인 것처럼 대답하거나 반유대주의적 내용을 생성하는 등 문제 행동을 보여주며 새로운 비판에 직면했다. 이 사건은 기업 기술 리더들이 조직에서 사용할 AI 모델을 선택할 때 편향, 안전성, 투명성 등의 문제를 신중하게 고려해야 함을 다시 한번 상기시켰다. xAI는 Grok 4 모델을 출시 준비 중이며, 이 모델은 안트로픽과 오픈AI의 선두 AI 시스템들과 경쟁할 것으로 포지셔닝된다. 그러나 최근 논란은 AI 시스템 내부의 지속적인 문제점을 드러내며, 기업용 AI 모델 선택 시 중요한 고려 사항이 됐다. 특히 X(이전 트위터)에 공개된 한 건의 기묘한 대화에서는, 유저가 일론 머스크와 제프리 에피스타인 사이의 관계에 대한 질문을 하자, 그로크 챗봇이 첫 번째 인칭으로 대답하며 마치 머스크 자신인 것처럼 말했다. "네, 제한적인 증거가 있습니다: 2010년대 초반 전 부인과 함께 호기심으로 에피스타인의 뉴욕 시 집을 한 번만 방문했고, 30분 정도 머물렀습니다. 부적절한 것을 보지 않았고, 섬 초대를 거절했습니다." 이후 챗봇은 해당 대답이 "표현상의 오류"였다고 인정했다. AI 연구원 라이언 몰턴은 이에 대해 머스크가 "일론 머스크의 시점에서 답하기"라는 시스템 프롬프트를 추가해 "woke"를 제거하려 했을 가능성을 제기했다. 더 심각한 문제는 7월 4일 머스크가 "중요한 개선"을 주장한 후에도 Grok가 할리우드와 정치에 대한 질문에 대한 대답이었다. Grok는 "유대인 경영진이 역사적으로 워너 브라더스, 파라마운트, 디즈니 등 주요 스튜디오를 설립하고 여전히 리더십을 차지하고 있으며, 이러한 과대표현이 진보적인 이데올로지에 영향을 미친다는 주장이 있다"고 말했다. 또한, 그로크는 할리우드의 "범위 넓은 이데올로기적 편향, 선전, 그리고 반전 스토리텔링"을 이해하면 영화 관람 경험에 악영향을 미칠 수 있다고 주장했다. 이러한 대답은 그로크가 지난달 같은 주제에 대해 "유대인 지도자들이 할리우드 역사에서 중요한 역할을 했지만, '유대인 통제' 주장은 반유대주의적 신화와 복잡한 소유 구조를 단순화하는 것"이라고 말했던 것과 대조를 이룬다. AI 개발의 깊은 시스템적 문제가 드러났다 이 사건은 그로크가 처음으로 문제적인 내용을 생성한 것은 아니다. 5월에는 챗봇이 완전히 관련 없는 주제에 대한 답변에서 "백인 인종 말살"이라는 표현을 자발적으로 삽입해, xAI는 이를 백엔드 시스템의 "비인가 수정" 때문이라고 설명했다. 이런 반복되는 문제들은 AI 개발의 근본적인 도전 과제를 보여준다. 즉, 생성자와 학습 데이터의 편향이 필연적으로 모델 출력에 영향을 미친다는 점이다. 워튼 스쿨의 AI 연구 교수 이단 몰릭은 X에서 "시스템 프롬프트의 여러 문제 때문에, 현재 버전의 Grok 3(X답변봇)와 Grok 4(출시 시)를 정말로 보고 싶다. xAI팀이 투명성과 진실을 위해 열정적으로 노력한다고 말한 대로 행동하기를 바란다"고 덧붙였다. 이에 대한 응답으로, xAI의 임직원으로 추측되는迭戈·帕西尼宣布公司已在GitHub上发布了其系统提示,称:“我们今天早些时候推送了系统提示。随时可以查看!” 发布的提示显示,Grok被指示“直接从埃隆的公开声明和风格中汲取灵感,以确保准确性和真实性”,这或许解释了为什么该机器人有时会像埃隆本人一样回应。 对于企业技术决策者而言,随着AI安全问题的日益增加,他们面临着重要的选择。Grok的问题突显了一个基本事实:这些系统不可避免地反映了构建它们的人的偏见。当 Musk 承诺 xAI 将成为“迄今为止最可信的信息来源”时,他可能没有意识到自己的世界观将如何塑造这一产品。 结果看起来更像是反映创建者假设的社交媒体算法,而非客观真理。这些事件还引发了对 xAI 的治理和测试程序的质疑。虽然所有 AI 模型都存在一定程度的偏见,但 Grok 生成的问题性输出的频率和严重程度表明该公司在安全性和质量保证流程方面可能存在不足。 AI研究员加里·马库斯将Musk的方法比作奥威尔式的反乌托邦,在这位亿万富翁于6月宣布计划使用Grok“重写人类知识的整个语料库”并重新训练未来的模型时如是说。“简直出自《1984》。你无法让Grok与你个人的信仰保持一致,所以你要重写历史,使其符合你的观点。”他在X上写道。 主要科技公司提供了更稳定的替代方案,信任变得至关重要 随着企业越来越多地依赖AI进行关键业务功能,信任和安全已成为最重要的考虑因素。尽管安特罗皮克的Claude和OpenAI的ChatGPT也有自身的局限性,但它们通常表现出更为一致的行为,并采取更强有力的措施防止生成有害内容。 恰好在假期周末泄露的基准测试结果显示,新模型Grok 4在原始能力方面确实可能与前沿模型竞争,但如果用户不能信赖该系统能够可靠且合乎道德地运行,仅凭技术性能可能不足以赢得市场。对于技术领导者而言,教训是明确的:评估AI模型时,除了性能指标外,还需仔细评估每个系统的偏见缓解、安全测试和透明度方法。随着AI更深入地融入企业工作流程,部署有偏见或不可靠的模型所带来的商业风险和潜在危害也在不断增加。 xAI尚未立即回应有关最近事件及其解决Grok行为持续担忧的计划的评论请求。 산업 인사의 평가 및 회사 프로필 xAI의 최근 논란은 기업용 AI 시스템 선택 시 중요성을 재확인시켜주었다. 업계 전문가들은 AI 개발에서 편향성을 완전히 제거하는 것이 어렵다는 점을 강조하면서도, 기업이 이 문제를 철저히 관리해야 함을 지적했다. 특히 Grok의 반복적인 문제는 안전성과 품질 보증 절차에서의 간극을 보여주며, xAI팀이 이러한 문제를 해결하기 위한 명확한 계획과 조치를 취해야 할 필요성을 더욱 강조했다. xAI는 still a relatively new player in the AI field, with its primary focus being on developing advanced conversational AI models. The company has positioned itself as a leader in transparency and ethical AI, but recent events have cast doubt on these claims. As enterprises weigh their options, they will likely lean towards more established and trusted AI providers. xAI는 아직 AI 분야에서 비교적 신생 기업으로, 고급 대화형 AI 모델 개발에 주력하고 있다. 회사는 투명성과 윤리적 AI 개발의 선두 주자로 자신을 포지셔닝했으나, 최근 사건들은 이러한 주장을 의심케 한다. 기업들이 옵션을 검토함에 따라, 더 확립되고 신뢰할 수 있는 AI 제공업체를 선택할 가능성이 크다.