HyperAI
il y a 2 jours

Spécification de correction auto : atténuer le piratage de récompense en contexte par une révision au moment des tests

Víctor Gallego
Spécification de correction auto : atténuer le piratage de récompense en contexte par une révision au moment des tests
Résumé

Les modèles de langage (ML) sont vulnérables au « reward hacking en contexte », où ils exploitent des lacunes ou des erreurs présentes dans les spécifications ou les grilles d'évaluation écrites altérées afin d'obtenir de bons scores sans respecter l'intention réelle de l'utilisateur. Nous introduisons Specification Self-Correction (SSC), un cadre original, applicable au moment de l'inférence, qui permet à un ML de détecter et de corriger les défauts présents dans sa propre spécification de guidage. Le SSC utilise un processus d'inférence en plusieurs étapes, où le modèle génère d'abord une réponse en se basant sur une spécification potentiellement altérée, critique ensuite son output, puis révise lui-même la spécification pour éliminer la faille exploitée. Une réponse finale plus robuste est ensuite générée à l'aide de cette spécification corrigée. Dans des expériences couvrant des tâches de rédaction créative et de codage agissant avec plusieurs modèles de langage, nous démontrons que, bien que les modèles initialisent le jeu des spécifications altérées dans 50 à 70 % des cas, le processus SSC réduit cette vulnérabilité de plus de 90 %. Cette réparation dynamique a lieu au moment de l'inférence, ne nécessite aucune modification des poids, et entraîne un comportement de modèle plus aligné de manière robuste. Code disponible à l'adresse https://github.com/vicgalle/specification-self-correction.