AgentsNet : Coordination et Raisonnement Collaboratif dans les LLMs Multi-Agents

Les grands modèles de langage (LLMs) ont démontré des capacités de résolution de problèmes puissantes, en particulier lorsqu'ils sont organisés en systèmes multi-agents. Cependant, l'avènement de tels systèmes soulève également plusieurs questions concernant la capacité d'un réseau complexe d'agents à s'auto-organiser et à collaborer efficacement. Bien que les mesures de performance sur des benchmarks de raisonnement standards indiquent la manière dont les systèmes multi-agents peuvent résoudre des tâches de raisonnement, il n'est pas clair si ces systèmes sont capables d'exploiter leur topologie de manière optimale. Dans cet article, nous proposons AgentsNet, un nouveau benchmark pour la raisonnement multi-agent. En s'inspirant des problèmes classiques des systèmes distribués et de la théorie des graphes, AgentsNet évalue la capacité des systèmes multi-agents à élaborer collectivement des stratégies pour la résolution de problèmes, l'auto-organisation et la communication efficace dans le contexte d'une topologie réseau donnée. Nous évaluons une variété de méthodes baselines sur AgentsNet, y compris des réseaux homogènes d'agents qui doivent d'abord convenir de protocoles fondamentaux pour l'organisation et la communication. Nous constatons que certains modèles LLMs frontières montrent déjà une forte performance pour les petits réseaux mais commencent à décliner lorsque la taille du réseau augmente. Alors que les benchmarks multi-agents existants couvrent au maximum 2 à 5 agents, AgentsNet est pratiquement illimité en taille et peut s'adapter aux nouvelles générations de modèles LLMs. Ainsi, nous explorons également les performances des modèles frontières dans une configuration comprenant jusqu'à 100 agents.