Codage positionnel pour contrôler la longueur de la séquence de sortie

Les modèles de codage-décodage neuronaux ont connu un succès notable dans les tâches de génération de langage naturel. Cependant, les applications réelles de la sommatisation abstraite doivent prendre en compte une contrainte supplémentaire : le résumé généré ne doit pas dépasser une longueur souhaitée. Dans cet article, nous proposons une extension simple mais efficace du codage positionnel sinusoïdal (Vaswani et al., 2017) afin de permettre au modèle de codage-décodage neuronal de respecter cette contrainte de longueur. Contrairement aux études précédentes qui apprennent des plongements représentant chaque longueur, la méthode proposée peut générer un texte de n'importe quelle longueur, même si la longueur cible n'est pas présente dans les données d'entraînement. Les résultats expérimentaux montrent que la méthode proposée non seulement contrôle la longueur de génération, mais améliore également les scores ROUGE.