HyperAIHyperAI

Command Palette

Search for a command to run...

LAPO:長さ適応型ポリシー最適化による推論効率の内面化

Xingyu Wu Yuchen Yan Shangke Lyu Linjuan Wu Yiwen Qiu Yongliang Shen Weiming Lu Jian Shao Jun Xiao Yueting Zhuang

概要

大規模な推論モデルは、拡張された思考過程シーケンスを通じて著しい性能を達成していますが、この計算の自由度は単純な問題においても過剰なトークン生成を引き起こします。我々は、長さ適応型ポリシー最適化(Length-Adaptive Policy Optimization:LAPO)という新しいフレームワークを提示します。このフレームワークは、推論の長さ制御を外部的な制約からモデル固有の能力へと変換します。既存の手法が厳密な制限を課すか、後処理による介入に頼るのに対し、LAPOは二段階の強化学習プロセスを通じて、モデルが適切な推論の深さを内面的に理解できるようにします。第一段階では、モデルは成功した解法の長さの統計的分布を発見することによって、自然な推論パターンを学習します。第二段階では、これらのパターンをメタ認知的なガイドとして活用し、それらをモデルの推論文脈に直接埋め込むことで、実行時の柔軟性を確保します。数学的推論ベンチマークでの実験により、LAPOはトークン使用量を最大40.9%削減しながら、精度を2.3%向上させることを示しています。我々の分析により、LAPOで訓練されたモデルは、問題の複雑性に基づいて計算リソースを割り当てることができる新たな能力を獲得し、品質を損なうことなく効率的な推論を実現することが明らかになりました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています