Command Palette
Search for a command to run...
Ingénierie agente de contexte : Évolution des contextes pour des modèles linguistiques à amélioration autonome

Résumé
Les applications des grands modèles linguistiques (LLM), telles que les agents ou le raisonnement spécifique à un domaine, s'appuient de plus en plus sur l'adaptation du contexte — c'est-à-dire la modification des entrées par des instructions, des stratégies ou des preuves, plutôt que par des mises à jour des poids. Les approches antérieures améliorent la facilité d'utilisation, mais souffrent souvent d'un biais de brièveté, qui sacrifie les connaissances spécifiques au domaine au profit de résumés concis, ainsi que d'un effondrement du contexte, où les réécritures itératives entraînent une perte progressive de détails au fil du temps. En s'appuyant sur la mémoire adaptative introduite par Dynamic Cheatsheet, nous proposons ACE (Agentic Context Engineering), un cadre qui considère les contextes comme des manuels évolutifs, accumulant, affinant et organisant progressivement des stratégies grâce à un processus modulaire de génération, de réflexion et de curatelle. ACE prévient l'effondrement grâce à des mises à jour structurées et incrémentales qui préservent les connaissances détaillées et s'échelonnent efficacement avec les modèles à long contexte. Sur des benchmarks d'agents et de domaines spécifiques, ACE optimise les contextes aussi bien en mode hors ligne (par exemple, les prompts système) qu'en mode en ligne (par exemple, la mémoire des agents), dépassant systématiquement des bases solides : +10,6 % pour les agents et +8,6 % pour le domaine financier, tout en réduisant significativement la latence d'adaptation et les coûts de déploiement. Notamment, ACE s'adapte efficacement sans supervision étiquetée, en s'appuyant uniquement sur les retours d'exécution naturels. Sur le classement AppWorld, ACE égale l'agent de niveau production classé en tête en moyenne globale, et le dépasse sur le sous-ensemble de tests plus exigeant, malgré l'utilisation d'un modèle open-source plus petit. Ces résultats démontrent que des contextes complets et évolutifs permettent de concevoir des systèmes LLM évolutifs, efficaces et auto-améliorants, avec un surcroît de charge minimal.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.