HyperAI超神経
Back to Headlines

Osmosis AI、コードマージ専用モデル「Osmosis-Apply-1.7B」をオープンソース化

2日前

コードマージを効率化する新モデル「Osmosis-Apply-1.7B」登場 Osmosis AIが開発した「Osmosis-Apply-1.7B」は、Qwen3-1.7Bを微調整し、高精度で構造化されたコードマージタスクを実行できるように設計されました。IDEエージェントの「インスタントアプライ」機能から着想を得たこのモデルは、文脈に適応した関数レベルでのコード編集に特化しています。 コードマージ向けの最適化 一般的な大規模言語モデル(LLM)は差分適用や意味的なマージに苦戦することがありますが、「Osmosis-Apply-1.7B」は特定の修正や差分を関数やブロックレベルで適用するトレーニングを受けました。モデルへの入力は3つあります:(1) 元のコード、(2) 編集または差分セット、(3) 予想されるマージ形式。その後、タグを埋め込んだブロック内で修正が適用された更新されたコードを出力します。このフォーマットは実際の開発環境での期待値に基づいており、検証作業が容易になります。 トレーニングと報酬構造 このモデルは、commitpackftデータセットから抽出した約10万件の実世界のコミットデータで微調整されています。学習サンプルは実践的な開発ワークフローを反映したもので、報酬ベースの後処理システムを用いて高精度の出力を強化しながら、スタイルの違いにもある程度の許容範囲を与えています。これが、実際のコードレビューにおけるプロセスをよく模倣している点です。 ベンチマーク結果 Osmosis AIは、同データセットから1万件のサンプルを使ってモデルを評価しました。その結果は次の通りです: | モデル | 報酬スコア | | ------ | ---------- | | Osmosis-Apply-1.7B | 0.9805 | | Claude 4 Sonnet | 0.9328 | | GPT-3.5-turbo | 0.8639 | | Gemini-2.5-Flash | 0.7745 | これらの結果は、「Osmosis-Apply-1.7B」が局部的な変更を適用しながら、意味、フォーマット、構造を保存できる強みを示しています。 実世界の開発者ワークフロー対応 「Osmosis-Apply-1.7B」の大きな特徴は、Model Context Protocol(MCP)のネイティブサポートです。これにより、ファイル階層、関数名、編集タグを使用して構造化されたコンテキスト呼び出しが可能になり、CLIツールやIDEエージェントでのシームレスな利用を実現します。関数レベルでの変更をスコープし、よく整理されたXMLスタイルのタグで編集をマークすることで、差分追跡や下流プロセスも簡単になります。 開発者向けツールと使用例 Osmosis AIは、「Osmosis-Apply-1.7B」の参考実装をリリースしており、ローカル推論とvLLMやGulp Serverとの統合に対応しています。ツールには CLIベースの使用例、MCPサーバー実装、および安全な展開ガイドが含まれます。 主な使用例: - 関数レベルでのコード修正 - プルリクエストの自動生成 - 差分適用とテストの自動化 形式と展開 モデルはとタグで編集箇所を包んで出力し、自動検証との互換性を確保します。推論に対応したバージョンは、safetensorsとGGUF形式で提供されており、制約のあるハードウェアでも最適化された推論を実現します。「Osmosis-Apply-1.7B」はローカルでのホスティングが可能で、量子化モードでのサービス展開も可能です。 利用とライセンス 「Osmosis-Apply-1.7B」はApache-2.0ライセンスのもとに開放され、Hugging FaceとGitHubでホストされています。推論用スクリプト、MCP準拠の展開例、および構造化的なフォーマットガイドがすべて含まれています。 今回の开源リリースによって、Osmosis AIは関数レベルで構造を理解するコード編集モデルへの重要ニーズに応えました。「Osmosis-Apply-1.7B」は、精度とフォーマット一致性を保ちつつ、コンパクトなサイズを実現しており、実世界の開発者ツールにとって理想的な選択肢となっています。 詳細については、GitHubページ、Hugging Faceページ、またはテクニカルディテールをご確認ください。本研究の全クレジットはプロジェクトに関与した研究者たちに帰属します。また、ML SubRedditにもご参加いただき、ニュースレターにサブスクリプションも可能です。

Related Links