Command Palette
Search for a command to run...
Lujain Ibrahim Katherine M. Collins Sunnie S. Y. Kim Anka Reuel Max Lamparth et al

要約
大規模言語モデル(LLM)は、自然言語によるより円滑な対話が可能な共同「思考パートナー」として機能する点で、従来の技術と異なり、その特徴を示している。医療から個人的アドバイスに至る多様な分野において、LLMが重要な意思決定にますます影響を及ぼすようになっている一方で、モデルの能力を超えて依存する「過度な依存」のリスクが高まっている。本ポジションペーパーでは、過度な依存の測定と軽減が、LLMの研究開発において中心的な課題となるべきだと主張する。まず、個人レベルおよび社会レベルの両方で過度な依存に起因するリスクを整理し、高リスクの誤り、ガバナンスの課題、認知能力の低下(認知的デスクスキル)などを挙げる。次に、LLMの特性、システム設計上の特徴、ユーザーの認知バイアスが複合的に作用することで、実践上において過度な依存に関する深刻かつ特異な懸念が生じていることを検討する。さらに、過度な依存を測定するための歴史的アプローチを検証し、三つの重要なギャップを明らかにした上で、測定手法の改善に向けて有望な三つの方向性を提案する。最後に、AI研究コミュニティが追求すべき緩和戦略を提示し、LLMが人間の能力を補完するものとなるよう、その実現を図ることを目指す。