17日前

指示タスクの整合が、大規模言語モデルをゼロショット関係抽出器として活用可能にする

Kai Zhang, Bernal Jiménez Gutiérrez, Yu Su
指示タスクの整合が、大規模言語モデルをゼロショット関係抽出器として活用可能にする
要約

近年の研究では、大規模な指示追従データセット上で大規模言語モデル(LLM)をファインチューニングすることで、自然言語処理(NLP)の多様なタスク、特にゼロショット設定における性能が顕著に向上することが示されている。しかし、先進的な指示チューニング済みLLMであっても、情報抽出の基盤的なタスクである関係抽出(Relation Extraction, RE)においては、小規模な言語モデル(LM)を上回ることができない場合がある。本研究では、REが指示チューニングデータセットにおいて極めて稀である(全タスクの1%未満に過ぎない、Wangら、2022年)ため、指示チューニングによってLLMに強力なRE能力を引き出すことが困難であると仮説を立てた。この課題を解決するために、本研究では関係抽出(RE)を指示チューニングデータセットにおいて主流である質問応答(QA)タスクと整合させるフレームワーク「QA4RE」を提案する。二系列の指示チューニング済みLLM(合計6モデル)を用いた4つのデータセットにおける包括的なゼロショットRE実験の結果、本フレームワークはLLMの性能を一貫して向上させ、仮説の妥当性を強く裏付け、強力なゼロショットベースラインを大きく上回る性能を実現した。さらに、本フレームワークの堅牢性、少サンプル効果、および優れた転移性能について、徹底的な実験と議論を提示している。本研究は、REのような困難かつ代表的でないタスクを、QAのような一般的な指示チューニングタスクと整合させることで、LLMの適応可能性を高める有望なアプローチを示している。