17日前

時系列知識質問応答における抽象的推論誘導

Ziyang Chen, Dongfang Li, Xiang Zhao, Baotian Hu, Min Zhang
時系列知識質問応答における抽象的推論誘導
要約

本研究では、大規模言語モデル(LLM)における時系列知識推論の向上という課題に取り組む。LLMはこのタスクにおいてしばしば困難に直面し、正確でないまたは誤解を招く応答を生成する傾向がある。この問題の主な原因は、変化する事実知識を適切に処理する能力の限界および複雑な時系列論理を扱う能力の不足にある。こうした制約を克服するため、本研究では「抽象的推論誘導(Abstract Reasoning Induction, ARI)」というフレームワークを提案する。ARIは時系列推論を「知識に依存しない段階」と「知識に基づく段階」の二つの明確なフェーズに分離する。このフレームワークはLLMに事実知識の支援を提供しつつ、不要なノイズデータの混入を最小限に抑える。同時に、構成主義(constructivism)の原理に基づき、ARIはLLMが過去の正しい・誤った推論サンプルから能動的かつ自律的に学習する能力を提供する。これにより、LLMが知識や推論手法を自ら構築する力を育むことで、時系列推論能力を顕著に向上させる。実験の結果、二つの時系列QAデータセットにおいて、それぞれ29.7%および9.27%の相対的な性能向上を達成し、本手法がLLMにおける時系列推論能力の向上に有効であることを示した。コードは以下のURLから入手可能である:https://github.com/czy1999/ARI-QA

時系列知識質問応答における抽象的推論誘導 | 最新論文 | HyperAI超神経