Un modèle de 1,5 milliard de paramètres pour une correction de code prédictive ultra-rapide, disponible localement
Le modèle sweepai/sweep-next-edit-1.5B est un modèle de 1,5 milliard de paramètres conçu pour prédire la prochaine modification de code avant que l’utilisateur ne la saisisse. Il est disponible au format GGUF quantifié en Q8_0, ce qui permet une exécution rapide et efficace sur des appareils locaux, comme un ordinateur portable. Grâce à une décodage spéculatif, le modèle peut fonctionner en moins de 500 ms, tout en surpassant des modèles plus gros — parfois plus de quatre fois plus volumineux — sur les benchmarks dédiés à la prédiction de modifications de code. Ce modèle repose sur une architecture fondée sur Qwen2.5-Coder, optimisée pour les tâches de développement logiciel. Il analyse le contexte du fichier, les dernières modifications (diffs) et l’état actuel du code pour proposer des suggestions de correction ou d’amélioration pertinentes et contextuelles. L’approche repose sur un format de prompt spécifique qui intègre ces éléments pour maximiser la précision des prédictions. Pour l’utiliser, il suffit de télécharger le fichier du modèle ainsi que le script run_model.py, puis d’installer les dépendances nécessaires via pip : uv pip install llama-cpp-python huggingface_hub Ensuite, exécutez le script : python run_model.py Le modèle supporte une longueur de contexte maximale de 8 192 tokens, ce qui lui permet de traiter des fichiers ou des fragments de code relativement longs. Il est particulièrement adapté aux environnements de développement où la latence doit être minimale, tout en offrant des performances élevées. Un article technique sur le blog de Sweep AI détaille les performances, les méthodologies d’entraînement et les résultats comparatifs. Un plugin pour JetBrains est également disponible, intégrant directement la fonctionnalité de prédiction de modifications dans l’environnement de développement intégré (IDE), améliorant ainsi la productivité des développeurs. Le modèle est publié sous licence Apache 2.0, ce qui permet une utilisation libre, y compris dans des projets commerciaux, à condition de respecter les conditions de la licence. Ce projet illustre une avancée significative dans l’intégration d’IA au quotidien du développeur, en offrant une assistance proactive, rapide et locale.
