Raisonnement cumulatif avec les grands modèles linguistiques

Les avancées récentes des grands modèles linguistiques (LLM) ont montré des progrès remarquables, mais leur capacité à résoudre des problèmes complexes reste limitée. Dans ce travail, nous introduisons le raisonnement cumulatif (Cumulative Reasoning, CR), une approche qui exploite de manière cumulative et itérative les LLM, en imitant les processus de pensée humains pour la résolution de problèmes. Le CR décompose les tâches en composants plus petits et plus gérables, et utilise les propositions antérieures pour une composition efficace, ce qui améliore significativement les capacités de résolution de problèmes. Nous démontrons l’avantage du CR à travers plusieurs tâches complexes de raisonnement : il surpasse les méthodes existantes dans les tâches d’inférence logique, avec une amélioration allant jusqu’à 9,3 %, atteignant une précision de 98,04 % sur le jeu de données FOLIO wiki soigneusement sélectionné. Dans le jeu du 24, il atteint une précision de 98 %, soit une amélioration de 24 % par rapport à l’état de l’art antérieur. Pour la résolution de problèmes mathématiques (MATH), le CR réalise une augmentation de 4,2 % par rapport aux méthodes précédentes, et une amélioration relative de 43 % sur les problèmes les plus difficiles, au niveau 5. Lorsqu’il est combiné à un environnement de code, le CR exploite davantage les capacités de raisonnement des LLM et dépasse la méthode Program of Thought (PoT) de 38,8 %. Le code source est disponible à l’adresse suivante : https://github.com/iiis-ai/cumulative-reasoning.