17日前

リトリーブを活用した再考:忠実な Large Language Model 推論

Hangfeng He, Hongming Zhang, Dan Roth
リトリーブを活用した再考:忠実な Large Language Model 推論
要約

大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクにおいて優れた成果を上げているが、これらのモデルに格納された知識は、必然的に不完全、古くなり、あるいは誤っている可能性がある。このような状況から、LLMに外部知識を活用して補完する必要性が生じる。しかし、現在の外部知識の統合手法は、多くの場合、追加の学習やファインチューニングを必要とし、コストが高く、特に大規模な言語モデルに対しては実用的でない場合がある。この課題に対処するために、本研究では、思考の流れ(Chain-of-Thought, CoT)プロンプティングから得られた分解された推論ステップに基づき、関連する外部知識を取得する新しい後処理アプローチ「リティリーブを用いた再考(Rethinking with Retrieval, RR)」を提案する。この手法は、追加の学習やファインチューニングを必要とせず、またLLMの入力長制限にも左右されない軽量なアプローチである。GPT-3を用いた、共通認識推論、時系列推論、テーブル推論の3つの複雑な推論タスクにおいて、広範な実験を通じてRRの有効性を評価した結果、RRはより信頼性の高い説明を生成し、LLMの性能を向上させることを確認した。