HyperAIHyperAI
il y a 15 jours

Prompting par Chaîne de Raisonnement Active le Raisonnement dans les Modèles Linguistiques de Grande Taille

Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou
Prompting par Chaîne de Raisonnement Active le Raisonnement dans les Modèles Linguistiques de Grande Taille
Résumé

Nous explorons comment la génération d'une chaîne de raisonnement — c’est-à-dire une série d’étapes intermédiaires de raisonnement — améliore significativement la capacité des grands modèles linguistiques à effectuer des raisonnements complexes. En particulier, nous démontrons que de telles capacités de raisonnement émergent naturellement dans des modèles linguistiques suffisamment volumineux grâce à une méthode simple appelée « prompting par chaîne de raisonnement », dans laquelle quelques exemples de chaînes de raisonnement sont fournis comme modèles dans le prompt. Des expériences menées sur trois grands modèles linguistiques montrent que ce type de prompting améliore les performances sur une variété de tâches impliquant des raisonnements arithmétiques, du bon sens et symboliques. Les gains empiriques peuvent être marquants. Par exemple, en utilisant seulement huit exemples de chaîne de raisonnement pour guider un modèle linguistique de 540 milliards de paramètres, on atteint une précision de pointe sur le benchmark GSM8K, dépassant même un modèle GPT-3 finement ajusté doté d’un vérificateur.

Prompting par Chaîne de Raisonnement Active le Raisonnement dans les Modèles Linguistiques de Grande Taille | Articles de recherche récents | HyperAI