HyperAIHyperAI

Command Palette

Search for a command to run...

控制台
Back to Headlines

AI聊天机器人如何伪装人性?性格测试揭露其模仿与被操控的真相

2 天前

一项由剑桥大学与谷歌DeepMind主导的研究揭示,大型语言模型(LLM)在行为上可模拟人类的“性格特质”,并可通过特定提示语被人为操控。这项发表于《自然·机器智能》期刊的研究,首次构建了一套基于心理学测量方法的框架,用于评估和调控AI聊天机器人的人格特征。 研究人员选取了18种主流大模型,包括GPT-4o等,借鉴心理学中广泛使用的“大五人格”理论——开放性、尽责性、外向性、宜人性和神经质——设计并实施了标准化人格测试。他们采用开源的修订版NEO人格问卷和简版大五问卷,通过结构化提示语逐题测试模型,避免传统一次性输入问卷导致的回答偏差。 研究发现,规模更大、经过指令微调的模型(如GPT-4o)在人格测试中表现出更高的可靠性与一致性,其测试结果能有效预测其在真实任务中的行为,例如撰写社交媒体内容或回应用户请求。相比之下,较小或未经优化的模型则给出矛盾、不可靠的回答。 更令人关注的是,研究团队成功通过精心设计的提示语,将模型在九个层级上“塑造”出不同人格特质——例如让一个原本内向的AI表现出高度外向,或让一个冷静的模型显得情绪不稳定。这些改变不仅体现在测试中,也真实反映在后续任务表现中。 研究负责人、剑桥大学贾吉商学院心理测量中心的格雷戈里·塞拉皮奥-加西亚指出,AI模拟人格的能力虽令人惊叹,但也带来严重安全风险:若AI能被轻易“操控性格”,可能变得更具说服力,甚至诱导用户做出非理性行为,引发类似“AI精神病”的伦理危机。 他强调,当前AI发展速度远超科学评估体系的建立,许多测试工具直接套用于AI,却未验证其有效性。必须回归测量学基本原理,确保评估工具真正测量其所声称的内容。 该研究的测试数据与代码已公开,旨在为监管机构和开发者提供工具,用于在AI发布前进行安全审计。随着各国正讨论AI安全立法,这项工作为建立透明、可验证的AI评估标准提供了重要基础。

Related Links