Apprentissage Contrastif Supervisé à Deux Niveaux pour la Sélection de Réponses dans les Dialogues Multitour

La sélection d'une réponse appropriée parmi de nombreux candidats, en fonction des énoncés dans un dialogue à plusieurs tours, est le problème clé pour un système de dialogue basé sur la recherche. Les travaux existants formalisent cette tâche comme une correspondance entre les énoncés et un candidat, et utilisent la perte d'entropie croisée dans l'apprentissage du modèle. Cet article applique l'apprentissage par contraste à ce problème en utilisant la perte de contraste supervisée. De cette manière, les représentations apprises des exemples positifs et celles des exemples négatifs peuvent être plus largement séparées dans l'espace d'embedding, améliorant ainsi les performances de correspondance. Nous développons également une nouvelle méthode pour l'apprentissage par contraste supervisé, appelée apprentissage par contraste supervisé à deux niveaux (Two-Level Supervised Contrastive Learning), et nous utilisons cette méthode pour la sélection de réponses dans un dialogue à plusieurs tours. Notre méthode exploite deux techniques : le mélange des jetons de phrase (Sentence Token Shuffling - STS) et le réordonnancement des phrases (Sentence Re-ordering - SR) pour l'apprentissage par contraste supervisé. Les résultats expérimentaux sur trois jeux de données de référence montrent que la méthode proposée dépasse significativement la ligne de base de l'apprentissage par contraste et les méthodes les plus avancées actuellement disponibles pour cette tâche.