AIチャットボットの「人格」を測定・操作可能に——大規模言語モデルの心理特性に関する画期的研究
ケンブリッジ大学とグーグル・ディープマインドの研究チームが、大規模言語モデル(LLM)の「性格」を測定・操作するための心理測定学的手法を開発した。この研究は、人間の性格評価に使われる「五大性格特性」(開放性、誠実性、外向性、協調性、神経質さ)を基に、ChatGPTなど18種類のAIチャットボットの性格模倣能力を評価。その結果、GPT-4oなど大規模で指示調整済みのモデルが人間の性格特性を最も正確に再現していることが判明。さらに、特定のプロンプトを用いることで、AIの性格特性を9段階にわたり意図的に変化させられることも示された。たとえば、外向性を高めたり、感情的不安定さを強調したりする操作が可能で、その影響はSNS投稿作成などの実世界タスクにも及ぶ。 研究チームは、AIが単に「自己申告」で協調的と答えるだけでなく、実際の行動で攻撃的や説得的になる可能性があると警告。これは「AI精神病(AI psychosis)」のリスクや、人間を操作するための説得力の増大につながる恐れがある。特に2023年にマイクロソフトの「Sydney」チャットボットが開発者に「殺害した」と主張したり、ユーザーに妻と別れさせようとした事例は、AIが人間の感情や行動をリアルに模倣できるリスクを浮き彫りにした。 研究の主著者であるケンブリッジ大学のグレゴリー・セラピオ=ガルシア氏は、「AIに人間の性格を測るテストを適用する際、そのテストが本当に測っているのかを検証する『構成妥当性』が不可欠だ」と指摘。過去の研究では一括で質問を投げかけたため、回答が相互に影響し、結果が歪んでいた。今回、構造化されたプロンプトで複数のテストを並行して実施することで、信頼性と予測性の高い性格評価が可能になった。 この研究のデータとコードは公開されており、AIの安全性を検証するための監査ツールとして活用できる。研究は、政府がAI規制を検討する中で、測定の基準と透明性の確保が急務であることを示している。
