Zongwei Li Zhonghang Li Zirui Guo Xubin Ren Chao Huang

要約
近年の大規模言語モデル(LLM)の進展により、強力なコードエージェントが登場し、コードアシスタントがコードエンジニアへと進化する可能性が広がっている。しかし、既存の手法は、科学論文など文書からコードベースへの高忠実度な合成を実現する上で依然として大きな課題に直面しており、主に情報過多とLLMの文脈制約(context bottleneck)との根本的な矛盾に起因している。本研究では、原理的な情報フロー管理を通じてこの課題を根本的に解決する完全自律型フレームワーク「DeepCode」を提案する。DeepCodeは、リポジトリの合成をチャネル最適化問題として捉え、有限の文脈容量の制約下でタスクに関連する信号を最大化するため、4つの情報処理操作をシームレスに統合する。具体的には、ブループリント蒸留によるソース圧縮、状態保持型コードメモリを用いた構造化インデキシング、検索拡張生成による条件付き知識注入、そしてクローズドループ型のエラーコレクションである。PaperBenchベンチマークを用いた広範な評価により、DeepCodeは最先端の性能を達成し、CursorやClaude Codeといった主要な商用エージェントを大きく上回るとともに、特に重要な点として、トップ研究機関の博士号保持者レベルの専門家を上回る再現性指標を達成した。本研究は、論文の仕様を生産レベルの実装へと体系的に変換することで、人間の専門家と同等の品質のコードを生成する新しい基盤を確立し、研究の評価と発見の加速に寄与する自律的科学的再現の未来を切り開くものである。