HyperAIHyperAI
il y a 17 jours

Analyse sémantique compositionnelle avec des grands modèles linguistiques

Andrew Drozdov, Nathanael Schärli, Ekin Akyürek, Nathan Scales, Xinying Song, Xinyun Chen, Olivier Bousquet, Denny Zhou
Analyse sémantique compositionnelle avec des grands modèles linguistiques
Résumé

Les êtres humains sont capables de raisonner de manière compositionnelle lorsqu’ils sont confrontés à de nouvelles tâches. Des recherches antérieures ont montré que des techniques d’instruction appropriées permettent aux grands modèles linguistiques (LLM) de résoudre des tâches artificielles de généralisation compositionnelle, telles que SCAN. Dans ce travail, nous identifions des défis supplémentaires dans des tâches plus réalistes de parsing sémantique, caractérisées par un vocabulaire plus étendu, et nous affinons ces techniques d’instruction pour y faire face. Notre meilleure méthode repose sur une stratégie de « least-to-most prompting » : elle décompose le problème à l’aide d’un parsing syntaxique basé sur l’instruction, puis utilise cette décomposition pour sélectionner des exemples pertinents et générer séquentiellement l’analyse sémantique. Cette approche nous permet d’établir un nouveau record sur CFQ tout en n’exigeant que 1 % des données d’entraînement utilisées par les méthodes traditionnelles. En raison de la nature générale de notre approche, nous pensons qu’elle pourra conduire à de nouveaux résultats dans d’autres tâches et domaines, en particulier dans les applications exigeant une forte intégration de connaissances.