Reconsidérer avec la récupération : inférence fidèle des grands modèles linguistiques

Malgré les succès des grands modèles linguistiques (LLM) dans diverses tâches de traitement du langage naturel (NLP), les connaissances stockées dans ces modèles risquent d’être inachevées, obsolètes ou erronées. Cela justifie la nécessité d’utiliser des connaissances externes pour accompagner les LLM. Toutefois, les méthodes actuelles d’intégration de connaissances externes exigent souvent un entraînement supplémentaire ou un fine-tuning, des procédés coûteux et potentiellement non réalisables pour les grands modèles linguistiques. Pour remédier à ce problème, nous proposons une nouvelle approche de post-traitement, appelée Rethinking with Retrieval (RR), qui récupère des connaissances externes pertinentes à partir des étapes de raisonnement décomposées obtenues grâce à la méthode d’amorçage par chaîne de raisonnement (Chain-of-Thought, CoT). Cette approche légère ne nécessite ni entraînement supplémentaire ni fine-tuning, et n’est pas contrainte par la longueur maximale d’entrée des LLM. Nous évaluons l’efficacité de RR à travers des expériences approfondies menées sur GPT-3 sur trois tâches complexes de raisonnement : le raisonnement du sens commun, le raisonnement temporel et le raisonnement sur tableaux. Nos résultats démontrent que RR permet de produire des explications plus fidèles et d’améliorer les performances des LLM.