Command Palette
Search for a command to run...
CritiCal : La critique peut-elle aider à calibrer l’incertitude ou la confiance des grands modèles linguistiques ?
Qing Zong Jiayu Liu Tianshi Zheng Chunyang Li Baixuan Xu Haochen Shi Weiqi Wang Zhaowei Wang Chunkit Chan Yangqiu Song

Résumé
Une calibration précise de la confiance dans les grands modèles linguistiques (LLM) est essentielle pour une utilisation sûre dans des domaines à enjeux élevés, où une expression verbale claire de la confiance renforce la confiance de l’utilisateur. Les méthodes traditionnelles, qui imitent les expressions de confiance de référence, échouent souvent à capturer le raisonnement nécessaire à une évaluation précise de la confiance. Nous proposons d’utiliser des critiques sous forme de langage naturel comme solution, particulièrement adaptée à la calibration de la confiance, car les étiquettes de confiance « or » précises sont difficiles à obtenir et nécessitent souvent plusieurs générations. Ce papier étudie comment les critiques en langage naturel peuvent améliorer l’expression verbale de la confiance, en abordant deux questions clés : (1) Quoi critiquer : l’incertitude (axée sur la question) ou la confiance (spécifique à la réponse) ? L’analyse montre que la confiance convient mieux aux tâches à choix multiples, tandis que l’incertitude se distingue dans les scénarios à réponse ouverte. (2) Comment critiquer : par auto-critique ou par entraînement de calibration de la critique ? Nous proposons Self-Critique, une méthode permettant aux LLM d’auto-critiquer et d’optimiser leur confiance au-delà de la simple précision, ainsi que CriticCal, une nouvelle méthode d’entraînement de calibration par critique, qui exploite les critiques en langage naturel pour améliorer la calibration de la confiance, en s’éloignant de l’optimisation numérique directe. Les expérimentations montrent que CriticCal surpasse significativement Self-Critique et d’autres modèles de référence, dépassant même, dans certaines tâches complexes de raisonnement, le modèle enseignant GPT-4o. CriticCal démontre également une généralisation robuste dans des situations hors distribution, contribuant ainsi à renforcer la fiabilité des LLM.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.