11日前
LLMsの数学推論におけるデータ能力境界に関する実証的研究
Zui Chen, Yezeng Chen, Jiaqi Han, Zhijie Huang, Ji Qi, Yi Zhou

要約
大規模言語モデル(LLMs)は、数学推論タスクにおいて新たな能力を示しており、オープンソースのLLMの推論能力を教師あり微調整(SFT)により向上させることが注目されている。本論文では、教師データの一般的な戦略を検討し、数学推論能力の最適化および拡張を図ることを目的とする。まず、推論パスの拡張における能力の限界を明らかにするために、これらのパスの最小最適セットを同定する。次に、対応するデータタイプの最小最適セットの混合(Mix of Minimal Optimal Sets, MMOS)により、モデルのさまざまな能力が累積的に向上することを検証した。その結果、我々のモデルMMOSは、極めて低い構築コストで、複数のベースモデルにおいて最先端(SOTA)の性能を達成した。さらに、GSM-HARDが実際にはそれほど難しいものではなく、現代のLLMはもはや数値的ロバスト性に欠けるわけではないことを指摘する。また、ロバスト性評価および教育分野への応用を目的とした自動問題生成ツールを提供する。本研究のコードおよびデータは、https://github.com/cyzhh/MMOS にて公開されている。