Agents de mémoire intrinsèque : systèmes multi-agents LLM hétérogènes par le biais d'une mémoire contextuelle structurée

Les systèmes multi-agents fondés sur les grands modèles linguistiques (LLM) offrent des perspectives prometteuses pour la résolution de problèmes collaboratifs complexes, mais ils sont confrontés à des défis fondamentaux découlant des limitations des fenêtres contextuelles, qui nuisent à la cohérence mémoire, à l’adhésion aux rôles et à l’intégrité procédurale. Ce papier présente les Intrinsic Memory Agents, un cadre novateur qui surmonte ces limites grâce à des mémoires structurées spécifiques à chaque agent, évoluant de manière intrinsèque en fonction des sorties des agents. Plus précisément, notre méthode maintient des modèles de mémoire alignés sur les rôles, préservant ainsi des perspectives spécialisées tout en se concentrant sur les informations pertinentes pour la tâche. Nous évaluons notre approche sur le jeu de données PDDL, en la comparant aux méthodes d’état de l’art existantes en matière de mémoire multi-agents, et montrons une amélioration de 38,6 % avec une efficacité maximale en termes de nombre de tokens. Une évaluation complémentaire est réalisée sur une tâche complexe de conception de pipeline de données, où nous démontrons que notre approche produit des conceptions de meilleure qualité selon cinq critères : évolutivité, fiabilité, facilité d’utilisation, rentabilité et qualité de la documentation, accompagnée d’éléments qualitatifs supplémentaires attestant de ces améliorations. Nos résultats suggèrent qu’en surmontant les limitations mémoire par des approches structurées et intrinsèques, on peut améliorer significativement les capacités des systèmes multi-agents basés sur les LLM pour des tâches de planification structurées.