Optimisation conjointe de la diversité et de la pertinence dans la génération de réponses neuronales

Bien que les modèles de conversation neuronaux récents aient montré un grand potentiel, ils génèrent souvent des réponses fades et génériques. Bien que diverses approches aient été explorées pour diversifier la sortie du modèle de conversation, ces améliorations se font généralement au détriment de la pertinence. Dans cet article, nous proposons un modèle SpaceFusion visant à optimiser conjointement la diversité et la pertinence en fusionnant l'espace latent d'un modèle séquence-à-séquence et celui d'un modèle autoencodeur grâce à des termes de régularisation novateurs. En conséquence, notre approche induit un espace latent dans lequel la distance et la direction par rapport au vecteur de réponse prédit correspondent approximativement à la pertinence et à la diversité, respectivement. Cette propriété permet également une visualisation intuitive de l'espace latent. Les résultats des évaluations automatiques et humaines montrent que l'approche proposée apporte une amélioration significative par rapport aux lignes de base solides, tant en termes de diversité que de pertinence.