Tree of Thoughts : Résolution réfléchie de problèmes avec des grands modèles linguistiques

Les modèles de langage sont de plus en plus déployés pour la résolution de problèmes généraux dans un large éventail de tâches, mais ils restent encore cantonnés à des processus décisionnels de type jeton par jeton, effectués de gauche à droite, durant l’inférence. Cela les rend insuffisants pour des tâches nécessitant une exploration, une anticipation stratégique ou où les décisions initiales jouent un rôle déterminant. Pour surmonter ces limites, nous introduisons un nouveau cadre d’inférence pour les modèles de langage, appelé Tree of Thoughts (ToT), qui généralise l’approche populaire de Chain of Thought (Chaîne de raisonnement) pour la mise en œuvre de modèles de langage, et permet d’explorer des unités cohérentes de texte (pensées) servant d’étapes intermédiaires dans la résolution de problèmes. ToT permet aux modèles de langage de prendre des décisions réfléchies en considérant plusieurs chemins de raisonnement différents, en évaluant eux-mêmes leurs choix pour déterminer la prochaine étape, tout en pouvant anticiper ou revenir en arrière lorsque nécessaire, afin de prendre des décisions globales. Nos expériences montrent que ToT améliore significativement les capacités des modèles de langage à résoudre des problèmes sur trois nouvelles tâches exigeant une planification ou une recherche non triviales : le Jeu du 24, l’écriture créative et les mots croisés miniatures. Par exemple, dans le Jeu du 24, tandis que GPT-4, avec une mise en œuvre basée sur la chaîne de raisonnement, ne parvenait à résoudre que 4 % des tâches, notre méthode atteint un taux de réussite de 74 %. Le dépôt de code contenant tous les prompts est disponible à l’adresse suivante : https://github.com/princeton-nlp/tree-of-thought-llm.