HyperAIHyperAI

Command Palette

Search for a command to run...

大規模言語モデルが感情知能テストの作成と解決に優れていることが研究で明らかに - 大規模言語モデル(LLM)は、人間が日常的に遭遇する感情に関する問題を解決する能力を測定するための感情知能(EI)テストをほぼ人間並みに解決できることが示されました。 - さらに、ChatGPT-4は新たなEIテスト項目を作成し、人間の評価者からも元のテスト項目と同等の明瞭さと現実性を得られました。 - この研究は、心理学におけるEIテストの開発やソーシャルワーカーのトレーニングにLLMを使用する可能性を示唆しています。

大規模言語モデルが感情 inteligence テストの作成と解決で優れた性能を発揮、研究で判明 人の一生を通じて、他者との意味深い社会的つながりを築く能力は、自己と共感し、経験を共有できることから成る感情知能(EI)と呼ばれています。これまで、心理学者はこの能力を測定するために、日常で遭遇する感情に起因する問題を解決できるかどうかを見るEIテストを開発してきました。 最近、ベルン大学とジュネーブ大学の研究者が、ChatGPTなどの大規模言語モデル(LLM)が人間と同様に EI テストを作成し、解決できるかどうかを調査しました。その結果、LLM は人間と非常に近いレベルで EI を理解でき、将来的には心のメカニクスを測定するツールとして有望であることが示されました。 研究手法と成果 研究グループのカトゥャ・シュレーゲル氏は、複数の LLM が人間向けに設計された5つの EI テストを完成させる能力を評価しました。これらのテストは、短い感情的なシナリオを提示し、最適な回答を求める設問から成ります。彼らがテストしたモデルには、ChatGPT-4、Gemini 1.5 flash、Haiku などが含まれています。 結果は驚異的で、LLM は平均 Accuracy 81% の高精度を達成しました。これに対し、人間の被験者は平均 56% の正解率でした。LLM は、感情的な状況における他人の感情を理解し、管理する能力が非常に高いことが明らかになりました。 さらに、ChatGPT-4 は全く新しい EI テストの生成能力も持つことが分かりました。生成されたテストは、人間の被験者により、元のテストと同様の難易度、明瞭性、リアリティを持つと評価され、心理計量的な品質も同等でした。これは、LLM が感情概念の深い理解を持っていることを示しています。 業界への影響 これらの結果は、心理学者が手作業で行っていたEIテストや訓練教材の開発においてLLMの利用を促進する可能性があります。また、ソーシャルワーカーの訓練用に、個別のロールプレイシナリオなどを生成することも考えられます。 LLM が感情的な対話を理解し、適切に対応できる能力は、メンタルヘルスチャットボットや教育チューター、顧客サービスアバターなど、感情的なシチュエーションで動作することが求められる社会的エージェントの開発にも有用です。研究チームは、次回の研究では、テスト形式以外の、より非構造化された現実的な感情対話での LLM のパフォーマンスを評価する予定です。また、現在のモデルが主に西洋中心的なデータでトレーニングされていることから、文化的 Sensitivity も検討されます。 コメントと企業概要 「我々の研究は、少なくとも現時点では、LLM が人間の感情を理解する前提となる感情推論スキルを模倣できる可能性があることを明らかにしました」とシュレーゲル氏は述べています。 本研究は、AI が心理学的評価に貢献するだけでなく、実際の社会的対話でも有用であることを示しています。LLM の性能と適用範囲の深化が、心理学者や技术開発者への示唆を与えることでしょう。

関連リンク