Cadre d'incitation intégré inspiré de l'enseignement : Une nouvelle approche pour améliorer la raisonnement dans les grands modèles linguistiques

Les grands modèles de langage (LLMs) montrent des performances impressionnantes dans divers domaines, mais ils continuent à éprouver des difficultés avec les tâches de raisonnement arithmétique. Des travaux récents ont démontré l'efficacité des méthodes de conception d'invitations (prompt design) pour améliorer ces capacités de raisonnement. Cependant, ces approches négligent des exigences cruciales en matière de connaissances préalables de concepts, théorèmes et astuces spécifiques nécessaires pour résoudre la plupart des problèmes de raisonnement arithmétique avec succès. Pour remédier à ce problème, nous proposons un nouveau cadre intégré inspiré par l'enseignement, qui imite le processus pédagogique d'un enseignant guidant ses élèves. Cette méthode dotte les LLMs de concepts essentiels, de théorèmes pertinents et de problèmes similaires avec des approches de solutions analogues, facilitant ainsi l'amélioration des capacités de raisonnement. De plus, nous introduisons deux nouveaux jeux de données chinois, MathMC et MathToF, tous deux accompagnés d'explications détaillées et de réponses. Des expérimentations sont menées sur neuf基准 (benchmarks), démontrant que notre approche améliore la précision du raisonnement des LLMs. Avec GPT-4 et notre cadre, nous atteignons une nouvelle performance state-of-the-art sur quatre benchmarks mathématiques (AddSub, SVAMP, Math23K et AQuA) avec des taux d'exactitude respectifs de 98,2% (+3,3%), 93,9% (+0,2%), 94,3% (+7,2%) et 81,1% (+1,2%). Nos données et notre code sont disponibles sur https://github.com/SallyTan13/Teaching-Inspired-Prompting.Note: 在句子 "Des expérimentations sont menées sur neuf基准 (benchmarks)" 中,"基准" 是中文术语,通常在法语中会使用 "benchmarks" 这个英文术语。因此,这里保留了英文术语以确保专业性和信息完整性。