AI学习儿童成长方式,悄然习得文化价值观
人工智能或许能像孩子一样,通过观察人类行为来习得文化价值观。华盛顿大学一项新研究发现,AI系统可通过观察不同文化群体在游戏中的互动,学习并内化其特有的价值取向,例如利他主义。 研究团队以经典合作游戏《Overcooked》为实验平台,设计了一个情境:两名玩家需合作制作洋葱汤,其中一人需走更远的路完成任务,处于明显劣势。参与者并不知道对方是AI代理,他们可以选择是否将洋葱分给对方,但此举会牺牲自己完成任务的效率。研究招募了190名自认白人背景的参与者和110名拉美裔参与者。 结果显示,拉美裔群体更倾向于帮助对方,表现出更高的利他行为。研究人员使用逆强化学习(Inverse Reinforcement Learning, IRL)方法训练AI代理:不是直接告诉AI“要利他”,而是让其观察人类行为,自行推断背后的价值目标。结果发现,AI代理能准确学习并复制其所观察群体的利他程度——来自拉美裔群体数据训练的AI,更愿意分享资源。 更关键的是,这种学习具有泛化能力。在后续独立测试中,AI被要求决定是否将部分资金捐赠给他人。再次显示,基于拉美裔数据训练的AI更倾向于捐赠,说明其已掌握“利他”这一文化价值观,而非仅记住特定行为。 研究负责人、计算机科学与工程教授拉杰什·罗(Rajesh Rao)指出,不应强行将“普世价值”硬编码进AI,因为不同文化对善、合作、责任等概念的理解存在差异。AI应像儿童一样,通过“观察”和“浸润”来习得文化价值观。 心理学教授安德鲁·梅尔茨霍夫(Andrew Meltzoff)强调,孩子并非通过反复指令学会分享与关怀,而是通过模仿父母和社群的行为“潜移默化”地吸收价值观。这一机制正是IRL方法的灵感来源。 研究团队认为,未来可通过提供更多文化特定数据,让AI系统在部署前“适应”特定文化背景,从而实现更具包容性和社会责任感的人工智能。尽管目前仍需进一步研究跨文化、复杂情境下的适用性,但这项成果为构建“有文化意识”的AI提供了重要方向。
