Vers des systèmes de recommandation conversationnels unifiés par apprentissage par prompt enrichi par des connaissances

Les systèmes de recommandation conversationnels (CRS) visent à extraire de manière proactive les préférences des utilisateurs et à recommander des éléments de haute qualité à travers des conversations menées en langage naturel. En général, un CRS se compose d’un module de recommandation chargé de prédire les éléments préférés par les utilisateurs, et d’un module de conversation chargé de générer des réponses appropriées. Pour développer un CRS efficace, il est essentiel d’intégrer de manière fluide ces deux modules. Les travaux existants adoptent soit des stratégies d’alignement sémantique, soit un partage de ressources et de représentations entre les deux modules. Toutefois, ces approches reposent encore sur des architectures ou des techniques différentes pour concevoir les deux modules, ce qui rend difficile une intégration efficace entre eux.Afin de résoudre ce problème, nous proposons un modèle CRS unifié, nommé UniCRS, basé sur l’apprentissage par prompt enrichi de connaissances. Notre approche unifie les sous-tâches de recommandation et de conversation dans le cadre de l’apprentissage par prompt, et utilise des prompts enrichis de connaissances fondés sur un modèle linguistique pré-entraîné (PLM) fixe pour accomplir les deux sous-tâches de manière unifiée. Dans la conception des prompts, nous intégrons des représentations de connaissances fusionnées, des tokens souples spécifiques à la tâche, ainsi que le contexte de dialogue, permettant ainsi de fournir une information contextuelle suffisante pour adapter le PLM à la tâche CRS. Par ailleurs, pour la sous-tâche de recommandation, nous intégrons également le modèle de réponse généré comme élément clé du prompt, afin de renforcer l’interaction informationnelle entre les deux sous-tâches. Des expériences étendues menées sur deux jeux de données publiques de CRS démontrent l’efficacité de notre approche.