8日前

逆IIFEval:大規模言語モデルは、根強い学習規則を忘れて本物の指示に従うことができるか?

Qinyan Zhang, Xinping Lei, Ruijie Miao, Yu Fu, Haojie Fan, Le Chang, Jiafan Hou, Dingling Zhang, Zhongfei Hou, Ziqiang Yang, Changxin Pu, Fei Hu, Jingkai Liu, Mengyun Liu, Yang Liu, Xiang Gao, Jiaheng Liu, Tong Yang, Zaiyuan Wang, Ge Zhang, Wenhao Huang
逆IIFEval:大規模言語モデルは、根強い学習規則を忘れて本物の指示に従うことができるか?
要約

大規模言語モデル(LLM)は多様なタスクにおいて優れた性能を発揮する一方で、教師あり微調整(SFT)の過程で学習された標準化されたパターンと矛盾する指示に従うことに困難を示す「認知的慣性(cognitive inertia)」を示す傾向がある。この限界を評価するために、本研究では「逆転IFEval(Inverse IFEval)」と呼ばれるベンチマークを提案する。このベンチマークは、モデルが訓練由来のバイアスを克服し、敵対的( adversarial )な指示に従う能力、すなわち「直感に反する能力(Counter-intuitive Ability)」を測定することを目的としている。逆転IFEvalは、質問の訂正、意図的な文章的欠陥、コメントのないコード、反事実的応答など、8種類の課題を導入している。人間を介するパイプラインを用いて、23のドメインにわたり、中国語および英語の高品質な質問1,012件からなるデータセットを構築し、最適化された「LLM-as-a-Judge」フレームワークのもとで評価を行った。既存の最先端LLMを対象とした実験から、本研究で提案する逆転IFEvalベンチマークの必要性が明らかになった。本研究の結果は、今後のモデルの整合性(alignment)向上において、単に文の流暢さや事実の正確さを追求するだけでなく、非常識な文脈下における適応性も重視すべきであることを強調している。今後、逆転IFEvalが認知的慣性の診断ツールとして機能し、狭いパターンへの過剰適合を低減するための手法の開発基盤となることを期待する。その結果、多様かつ予測不能な現実世界のシナリオにおいて、LLMの指示従従性の信頼性が向上することを目指す。