Command Palette
Search for a command to run...
Yi-Fei Liu Yi-Long Lu Di He Hang Zhang

要約
個々人の心理的構造は、広く相互に関連しているとされている。本研究では、大規模言語モデル(LLM)が、極めて限られた定量的入力から人間の心理的特徴間の相関構造をどのようにモデル化できるか、またその仕組みについて検証した。816人の人間被験者から得られた「五大性格特性尺度(Big Five Personality Scale)」の回答をもとに、さまざまなLLMに、他の9つの心理尺度について「その人物の立場で回答する」ことを指示した。その結果、LLMは人間の心理的構造を驚くほど正確に捉え、LLMが生成した回答における尺度間相関パターンは、人間データのそれと強く一致した。このゼロショット(zero-shot)性能は、意味的類似性に基づく予測をはるかに上回り、直接データセットに学習させた機械学習アルゴリズムの精度に近づいた。推論プロセスの分析から、LLMは体系的な二段階プロセスを用いていることが明らかになった。第一段階では、原始的な五大性格特性の回答を、情報選択と圧縮を経て自然言語による性格要約に変換する。これは、十分統計量(sufficient statistics)を生成するのと類似している。第二段階では、この要約に基づいて、対象の尺度に対する回答を推論・生成する。情報選択の観点から見ると、LLMは訓練済みのアルゴリズムと同様に、重要な性格因子を同定しているが、因子内の項目間の重要度の違いを区別できていない。得られた圧縮された要約は単なる冗長表現ではなく、相互作用する情報の連携(synergistic information)を捉えている。これらの要約を元のスコアに加えることで、予測の一致度が向上したため、これらが特徴間の相互作用を示す「二階層的パターン(second-order patterns)」をエンコードしている可能性が示唆された。本研究の結果は、LLMが抽象化と推論のプロセスを通じて、極めて少ないデータから個々人の心理的特徴を正確に予測できることを示しており、心理的シミュレーションの強力なツールとしての可能性を示すとともに、LLMが内生的に獲得する推論能力に関する貴重な知見を提供している。