Command Palette

Search for a command to run...

1ヶ月前

LongCodeZip:コード言語モデル向けの長文脈圧縮手法

Yuling Shi Yichun Qian Hongyu Zhang Beijun Shen Xiaodong Gu

LongCodeZip:コード言語モデル向けの長文脈圧縮手法

要約

長文脈におけるコード生成は、大型言語モデル(LLM)がコードベース内の膨大な情報を処理・推論する必要が高まるにつれて、ますます重要性を増している。近年の技術進展により、コード用LLMは長文入力を処理できるようになったが、依然として高いAPIコストと生成遅延が大きな課題となっている。既存の文脈圧縮手法(例:LLMLingua)は汎用テキストに対して優れた成果を上げているものの、コード特有の構造や依存関係を無視しており、プログラミングタスクにおいては最適な性能を発揮できていない。本論文では、コード用LLMに特化した新たなプラグアンドプレイ型コード圧縮フレームワーク「LongCodeZip」を提案する。LongCodeZipは二段階戦略を採用している。(1)粗粒度圧縮:指示文に対する条件付き自己エントロピーを用いて関数単位のチャンクを識別・順位付けし、最も関連性の高い関数のみを保持する。また(2)細粒度圧縮:保持された関数を自己エントロピーに基づいてブロックに分割し、動的なトークン予算のもとで関連性を最大化する最適なサブセットを選択する。コード補完、要約、質問応答といった複数のタスクにおいて実施された評価では、LongCodeZipはベースライン手法を一貫して上回り、タスク性能を損なわずに最大5.6倍の圧縮比を達成した。本手法により、重要な情報を保持しつつ文脈サイズを効果的に削減することで、LLMが現実世界の大規模コード環境にスケーラブルに適応する可能性が高まり、コードインテリジェンスアプリケーションの効率性と能力が飛躍的に向上することが期待される。

AI で AI を構築

アイデアからローンチまで — 無料の AI 共同コーディング、すぐに使える環境、最適価格の GPU で AI 開発を加速。

AI 共同コーディング
すぐに使える GPU
最適価格
今すぐ始める

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
LongCodeZip:コード言語モデル向けの長文脈圧縮手法 | 論文 | HyperAI超神経