HyperAIHyperAI
il y a 15 jours

Factorisation de significations et de formes pour une reformulation préservant l'intention

Tom Hosking, Mirella Lapata
Factorisation de significations et de formes pour une reformulation préservant l'intention
Résumé

Nous proposons une méthode de génération de paraphrases de questions en anglais qui préserve l’intention originale tout en utilisant une forme superficielle différente. Notre modèle combine un choix soigneux de l’objectif d’entraînement avec un bouchon d’information fondé sur des principes théoriques, afin d’induire un espace de codage latent qui sépare la signification de la forme. Nous entraînons un modèle encodeur-décodeur à reconstruire une question à partir d’une paraphrase ayant la même signification et d’un exemple ayant la même forme superficielle, ce qui conduit à des espaces de codage séparés. Nous utilisons un Autoencodeur Variationnel à Quantification Vectorielle pour représenter la forme superficielle à l’aide d’un ensemble de variables latentes discrètes, ce qui nous permet d’utiliser un classificateur pour sélectionner une forme superficielle différente au moment du test. De façon cruciale, notre méthode ne nécessite pas l’accès à une source externe d’exemples cibles. Des expériences étendues ainsi qu’une évaluation humaine montrent que nous parvenons à générer des paraphrases offrant un meilleur compromis entre préservation sémantique et nouveauté syntaxique par rapport aux méthodes antérieures.

Factorisation de significations et de formes pour une reformulation préservant l'intention | Articles de recherche récents | HyperAI