HyperAI
Back to Headlines

Osmosis-Apply-1.7B : Une Solution Compacte et Précise pour les Fusions de Code

il y a 2 jours

Osmosis AI vient de rendre open source Osmosis-Apply-1.7B, une version affinée de Qwen3-1.7B, spécialement conçue pour effectuer des tâches de fusion de code avec une précision et une structure élevées. Inspiré par des agents IDE tels que le "instant apply" de Cursor, Osmosis-Apply-1.7B est optimisé pour des éditions de code sensibles au contexte et basées sur les fonctions. Il réussit à offrir des performances solides avec moins de paramètres en comparaison avec des modèles fondamentaux beaucoup plus grands grâce à l'utilisation de balises de formatage spécifiques au code, d'un ensemble de données de haute qualité, et à l'intégration du protocole de contexte des modèles (MCP). Modèle Spécialisé pour les Tâches de Fusion de Code Contrairement aux modèles de langage général (LLMs), qui peinent souvent à appliquer des différences (diffs) et à fusionner sémantiquement, Osmosis-Apply-1.7B est entraîné expressément pour appliquer des éditions structurées au niveau des fonctions ou des blocs. Le modèle utilise trois entrées structurées : (1) le code original, (2) l'ensemble d'éditions ou de diffs, et (3) le format de fusion attendu. Il génère ensuite un bloc de code révisé où les changements sont appliqués et encapsulés dans des balises au sein d'un bloc . Ce format correspond aux attentes professionnelle et facilite la validation. Processus de Formation et Structure de Récompenses Osmosis-Apply-1.7B a été affine sur environ 100,000 commits du jeu de données commitpackft, représentant moins de 15% de la totalité du corpus. Chaque échantillon d'entraînement a été structuré pour refléter des flux de travail pratiques des développeurs. Un système de formation post-entraînement basé sur des récompenses a été utilisé pour renforcer les sorties de haute fidélité tout en permettant des variations stylistiques, approche similaire aux revues de code en pratique. Résultats des Benchmarks Osmosis AI a évalué le modèle à l'aide de 10,000 échantillons issus du même jeu de données commitpackft. Les résultats moyens des scores de récompense démontrent une performance remarquable en comparaison avec des modèles de plus grande taille : Osmosis-Apply-1.7B : 0.9805 Claude 4 Sonnet : 0.9328 GPT-3.5-turbo : 0.8639 Gemini-2.5-Flash : 0.7745 Ces résultats soulignent la capacité du modèle à appliquer des changements localisés tout en préservant la sémantique, le formatage, et la structure du code. Intégration MCP pour les Flux de Travail des Développeurs Une des caractéristiques majeures d'Osmosis-Apply-1.7B est son support natif du Protocole de Contexte des Modèles (MCP), facilitant ainsi l'invocation de contexte structurée avec des hiérarchies de fichiers, des noms de fonctions, et des balises d'édition. Conformément à la spécification apply-code MCP, le modèle peut être intégré sans difficulté dans des outils en ligne de commande (CLI) et des agents IDE. Il retourne les changements au niveau de la fonction et marque les modifications avec des balises XML bien structurées, ce qui simplifie le suivi des diffs et l'outilage en aval. Outils de Développement et Cas d'Utilisation Osmosis AI a également dévoilé une implémentation de référence qui prend en charge les inférences locales et l'intégration avec des services tels que vLLM ou Gulp Server. Ce package d'outils comprend des exemples d'utilisation basés sur le CLI, une mise en œuvre de serveur MCP, ainsi que des guides de déploiement sécurisé. Les principaux cas d'usage d'Osmosis-Apply-1.7B incluent : - Fusion de Code : Application de diffs et fusion sémantique au niveau des fonctions. - Automatisation des Tests : compatibilité avec les validateurs automatisés pour les tests de qualité. - Intégration Continuelle : Support des flux de travail CI/CD pour des mises à jour et modifications fréquentes. - Agents IDE : Utilisation comme agent IDE pour des suggestions d'édition précises et contextualisées. Format et Déploiement Les modifications générées par le modèle sont enveloppées dans des balises et pour garantir une compatibilité avec les validateurs automatisés. Des versions prêtes à l'inférence sont proposées dans divers formats, dont safetensors et GGUF, pour faciliter un déploiement efficient sur des hardware limités. Osmosis-Apply-1.7B peut être hébergé localement ou servi en mode quantifié pour une inferenz optimisée evenement de ressources matérielles limitées. Disponibilité et Licenciation Osmosis-Apply-1.7B est disponible sous licence Apache-2.0 et est hébergé tant sur Hugging Face que sur GitHub. La distribution comprend tous les scripts nécessaires pour l'inférence, des exemples de déploiement conforme MCP, et des guides de formatage structuré. Conclusion En rendant open source Osmosis-Apply-1.7B, Osmosis AI répond à un besoin crucial de modèles d'édition de code au niveau des fonctions, dotés d'une prise en charge de la structure. Ce modèle spécialisé combine une taille compacte avec une précision élevée et une adhésion au format, facilitant ainsi son intégration dans les outils de développement réels. Son intégration MCP, sa formation basée sur des récompenses, et sa structure syntaxique en font une option idéale pour le flux de travail des développeurs. Pour plus de détails, consultez la page GitHub, la page Hugging Face et les détails techniques. Tous les crédits pour cette recherche reviennent aux chercheurs de ce projet. N'hésitez pas à nous suivre sur Twitter, YouTube, et Spotify et à rejoindre notre subreddit consacré à l'apprentissage machine comptant plus de 100,000 membres. Abonnez-vous aussi à notre newsletter pour rester informé des dernières avancées.

Related Links