17日前

MathCoder:数学的推論の向上を目的としたLLMにおけるスムーズなコード統合

Ke Wang, Houxing Ren, Aojun Zhou, Zimu Lu, Sichun Luo, Weikang Shi, Renrui Zhang, Linqi Song, Mingjie Zhan, Hongsheng Li
MathCoder:数学的推論の向上を目的としたLLMにおけるスムーズなコード統合
要約

最近公開されたGPT-4 Code Interpreterは、自然言語によるスムーズな推論、コードの生成、コードの実行、および実行結果に基づく継続的推論という能力により、困難な数学問題を解くことに優れた実力を示している。本論文では、オープンソース言語モデルを微調整する手法を提示し、これによりモデルがコードを用いて数学的モデルを構築し、数式を導出する能力を高め、数学的推論能力を強化することを可能にする。さらに、数学問題とそのコードベースの解答を含む、新規かつ高品質なデータセットを生成する手法を提案し、これを「MathCodeInstruct」と呼ぶ。各解答は自然言語、コード、実行結果を交互に組み合わせた構造を持つ。また、カスタマイズされた教師あり微調整および推論アプローチを導入し、コードベースの解答を生成できる「MathCoder」モデル群を構築した。驚くべきことに、MathCoderモデルはMATH(45.2%)およびGSM8K(83.9%)データセットにおいて、オープンソース大規模言語モデルの中でも最先端のスコアを達成し、他のオープンソースモデルを大きく上回っている。特に、MathCoderモデルはGSM8KおよびMATHデータセットにおいてChatGPT-3.5およびPaLM-2を上回るだけでなく、競技レベルのMATHデータセットではGPT-4さえも上回っている。本研究で開発したデータセットおよびモデルは、https://github.com/mathllm/MathCoder にて公開される予定である。