Command Palette
Search for a command to run...
Poser des questions clarificatrices pour l’élicitation des préférences avec des modèles linguistiques à grande échelle
Ali Montazeralghaem Guy Tennenholtz Craig Boutilier Ofer Meshi

Résumé
Les grands modèles linguistiques (LLM) ont permis aux systèmes de recommandation d’interagir avec les utilisateurs via des interfaces conversationnelles à réponse ouverte. Pour personnaliser les réponses des LLM, il est essentiel d’extraire les préférences des utilisateurs, notamment lorsque l’historique d’interaction est limité. Une manière d’obtenir davantage d’informations consiste à poser des questions clarificatrices à l’utilisateur. Toutefois, la génération de questions clarificatrices séquentielles efficaces dans divers domaines demeure un défi. Pour y remédier, nous proposons une nouvelle approche d’entraînement des LLM afin qu’ils posent des questions séquentielles permettant de révéler les préférences des utilisateurs. Notre méthode suit un processus en deux étapes inspiré des modèles de diffusion. À partir d’un profil utilisateur, le processus avant génère des questions clarificatrices afin d’obtenir des réponses, puis retire progressivement ces réponses, ce qui constitue une manière d’ajouter du « bruit » au profil utilisateur. Le processus inverse consiste à entraîner un modèle à « débruiter » le profil utilisateur en apprenant à poser des questions clarificatrices efficaces. Nos résultats montrent que notre méthode améliore significativement la capacité des LLM à poser des questions en entonnoir et à extraire efficacement les préférences des utilisateurs.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.