HyperAIHyperAI
il y a 2 mois

Perte Pondérée par la Complexité et Réorganisation Diversifiée pour la Simplification de Phrases

Reno Kriz; João Sedoc; Marianna Apidianaki; Carolina Zheng; Gaurav Kumar; Eleni Miltsakaki; Chris Callison-Burch
Perte Pondérée par la Complexité et Réorganisation Diversifiée pour la Simplification de Phrases
Résumé

La simplification de phrases est la tâche consistant à réécrire des textes afin qu'ils soient plus faciles à comprendre. Des recherches récentes ont appliqué des modèles séquence-à-séquence (Seq2Seq) à cette tâche, en se concentrant principalement sur les améliorations lors de l'entraînement grâce à l'apprentissage par renforcement et à l'augmentation de la mémoire. L'un des principaux problèmes liés à l'utilisation de modèles Seq2Seq génériques pour la simplification est que ces modèles ont tendance à copier directement du texte d'origine, ce qui entraîne des sorties relativement longues et complexes. Nous visons à atténuer ce problème en utilisant deux techniques principales. Premièrement, nous intégrons les complexités des mots de contenu, telles que prédites par un modèle de complexité lexicale graduée, dans notre fonction de perte pendant l'entraînement. Deuxièmement, nous générons un grand nombre de simplifications candidates diverses au moment du test, puis nous les reclassons pour favoriser la fluidité, la pertinence et la simplicité. Ici, nous mesurons la simplicité à travers un nouveau modèle de complexité des phrases. Ces extensions permettent à nos modèles de performer au niveau compétitif avec les systèmes d'avant-garde tout en générant des phrases plus simples. Nous rapportons les métriques d'évaluation automatique et humaine standards.

Perte Pondérée par la Complexité et Réorganisation Diversifiée pour la Simplification de Phrases | Articles de recherche récents | HyperAI