Le moindre au plus, une méthode d'incitation, permet aux grands modèles linguistiques de mener des raisonnements complexes.

Le prompting par chaîne de raisonnement a démontré des performances remarquables sur diverses tâches de raisonnement en langage naturel. Toutefois, il se révèle souvent peu efficace sur des tâches nécessitant la résolution de problèmes plus complexes que ceux présentés dans les exemples du prompt. Pour surmonter ce défi de généralisation du facile au difficile, nous proposons une nouvelle stratégie de prompting, appelée least-to-most prompting. L'idée centrale de cette approche consiste à décomposer un problème complexe en une série de sous-problèmes plus simples, puis à les résoudre séquentiellement. La résolution de chaque sous-problème est facilitée par les réponses aux sous-problèmes précédemment résolus. Nos résultats expérimentaux sur des tâches liées à la manipulation symbolique, à la généralisation compositionnelle et au raisonnement mathématique révèlent que le least-to-most prompting est capable de généraliser à des problèmes plus difficiles que ceux présents dans les exemples du prompt. Un résultat notable est que, lorsque le modèle GPT-3 code-davinci-002 est utilisé avec cette stratégie, il parvient à résoudre le benchmark de généralisation compositionnelle SCAN sur n'importe quel découpage (y compris le découpage par longueur) avec une précision d'au moins 99 %, en utilisant uniquement 14 exemples, contre seulement 16 % de précision avec le prompting par chaîne de raisonnement. Ce résultat est particulièrement frappant, car les modèles neuronaux-symboliques de la littérature spécialisés dans la résolution de SCAN sont entraînés sur l'ensemble d'entraînement complet, contenant plus de 15 000 exemples. Les prompts utilisés pour toutes les tâches sont fournis en annexe.