Command Palette
Search for a command to run...
パラメータ効率的な算術推論を達成するための、記号的ソルバーを呼び出すように訓練されたフリーガルLMs
パラメータ効率的な算術推論を達成するための、記号的ソルバーを呼び出すように訓練されたフリーガルLMs
Subhabrata Dutta Joykirat Singh Ishan Pandey Sunny Manchanda Soumen Chakrabarti Tanmoy Chakraborty
概要
大規模言語モデル(LLM)は、モデル規模の増大に伴って出現する現象として、ゼロショットでの数学的推論能力を示すことが知られている。この能力は、通常、思考の連鎖(Chain-of-Thought, CoT)形式の推論として現れる。しかし、複数の実証的研究によれば、このような推論能力は、500億パラメータを越える非常に巨大なLLMに限られることが明らかになっている。一方、教育神経科学の観点からは、算術文章題と同時に、記号的な代数的操作を導入することで、自然言語から数式の定式化、数式の記号的操作、そして最終的な計算という各ステップをモジュール化するべきであると提言されている。本研究では、多段階推論が苦手な小規模な言語モデル(LM)が、算術文章題を「定式化してから解く」というタスクとして提示された場合、合理的な算術推論が可能になるという仮説を立てる。我々が提案するアーキテクチャ、SYRELMでは、LMが自然言語で提示された算術問題を、形式言語(Formal Language, FL)による記述に翻訳する役割を担う。その後、得られたFL表現は、記号的ソルバーによって評価され、最終的な答えが得られる。本手法では、小規模な固定(frozen)LMに効率的な低ランクアダプタを導入し、算術問題の自然言語記述(例えば、変数名とその意味、変数を組み合わせた形式的表現など)を含むFL表現を生成できるようにしている。さらに、非微分可能な記号的ソルバーのフィードバックを用いて、ポリシー勾配に基づく強化学習により、アダプトされたLMを訓練する。これは、近年のツール拡張型LLMの動向とは大きく異なるアプローチであり、外部ツール(例:電卓、Web検索など)がLMの学習フェーズから完全に分離されているのに対し、SYRELMでは記号的ソルバーが学習プロセスに直接組み込まれている。実験結果では、SYRELMはベースラインLMに比べて顕著な性能向上を示しており、GPT-J 6Bモデルを用いたSVAMPデータセットにおいて、正解率が30.65ポイントも向上した。また、本手法は診断・解釈が容易であり、多くの研究者が手を出しやすい実験環境を維持している点でも、その実用性が高く評価できる。