研究揭示:大型语言模型在中英文回应中展现不同文化倾向
麻省理工学院(MIT)和同济大学的研究人员在一项近日发表于《自然·人类行为》的研究中发现,大型语言模型(LLM)在应对英文和中文查询时展现出不同的文化倾向。这项研究重点分析了两类文化心理学的基础概念:社会导向和认知风格,通过对比GPT与ERNIE这两款主流的人工智能生成模型的输出,揭示了它们在中文和英文环境下表现出的文化差异。 GPT是由OpenAI开发的一款广受欢迎的语言模型,在美国及欧洲多国得到广泛应用,而ERNIE则主要服务于中国市场。通过对这两个模型在中文和英文环境下的大量响应分析,研究人员发现,当GPT用中文处理请求时,倾向于展示更加互依(即重视社区和人际关系)的社会导向和更加整体的认知风格;相反,在英语环境中,则更偏重个人主义和社会独立性,以及分析性思考。这些发现同样得到了ERNIE实验的支持。 研究团队不仅从理论层面上探讨了这种文化差异的现象,还举例说明了其实际影响。例如,当用户用中文提出请求时,GPT推荐的广告内容更可能强调团队合作和个人之间的联系,显示出更浓厚的东方文化色彩。而在接收英文输入时,GPT则倾向于生成更多符合西方个人主义价值观的内容。这表明,虽然LLM具有广泛的语言处理能力,但它们在不同文化背景下使用时,无法完全做到文化的中立性。 此外,研究人员提出了利用“文化提示”来调整或减轻模型文化倾向的策略。也就是说,如果在提问时明确让模型站在特定文化视角下进行思考,模型能更好地生成与该文化价值观相匹配的内容。这一发现为后续研究者探索如何使计算模型更加“文化中立”提供了新的方向。 业内人士认为,这项研究为理解AI生成内容的文化特性打开了一扇窗,对于全球范围内多文化交互的应用场景有着重要启发意义。它提醒开发者,在构建跨文化交流工具时,需要考量语言背后的文化内涵,避免潜在的偏见。未来,这一领域的深入研究将有望促进更加公平、兼容的文化交互技术的发展。 MIT和同济大学在计算机科学和行为科学领域均享有盛誉,此次合作成果充分展示了跨学科研究的巨大潜力。随着人工智能技术的不断进步,此类研究的重要性日益凸显,有助于构建更加和谐的跨国界数字环境。