Command Palette
Search for a command to run...
Yi-Fei Liu Yi-Long Lu Di He Hang Zhang

摘要
个体内部的心理构念普遍被认为彼此相互关联。我们探究了大型语言模型(LLMs)是否以及如何仅通过极少的量化输入,建模人类心理特质之间的相关结构。我们向多个大型语言模型输入了816名人类个体在大五人格量表上的回答,要求其“扮演”这些个体,在另外九个心理量表上生成响应。结果表明,LLMs在捕捉人类心理结构方面表现出极高的准确性,其生成的量表间相关性模式与真实人类数据高度一致。这种零样本(zero-shot)表现显著优于基于语义相似性的预测水平,且接近于直接在该数据集上训练的机器学习算法的准确度。对模型推理路径的分析揭示,LLMs采用了一种系统性的两阶段过程:首先,它们通过信息选择与压缩,将原始的大五人格量表回答转化为自然语言形式的人格描述摘要,这一过程类似于生成充分统计量;其次,基于这些摘要进行推理,生成目标量表的响应。在信息选择阶段,LLMs识别出与训练有素的算法相同的关键人格因素,但未能区分各量表条目在因子内部的重要性差异。值得注意的是,这些压缩后的摘要并非简单的冗余表示,而是捕捉到了协同性信息——将这些摘要信息与原始得分结合后,可进一步提升预测结果与真实数据的一致性,表明其编码了特质间相互作用的涌现性、二阶模式。本研究结果表明,LLMs能够通过抽象与推理过程,仅凭极少量数据精准预测个体的心理特质,不仅为心理模拟提供了一种强大工具,也揭示了其在复杂认知推理方面的潜在能力。