HyperAIHyperAI

Command Palette

Search for a command to run...

Codage positionnel pour contrôler la longueur de la séquence de sortie

Sho Takase Naoaki Okazaki

Résumé

Les modèles de codage-décodage neuronaux ont connu un succès notable dans les tâches de génération de langage naturel. Cependant, les applications réelles de la sommatisation abstraite doivent prendre en compte une contrainte supplémentaire : le résumé généré ne doit pas dépasser une longueur souhaitée. Dans cet article, nous proposons une extension simple mais efficace du codage positionnel sinusoïdal (Vaswani et al., 2017) afin de permettre au modèle de codage-décodage neuronal de respecter cette contrainte de longueur. Contrairement aux études précédentes qui apprennent des plongements représentant chaque longueur, la méthode proposée peut générer un texte de n'importe quelle longueur, même si la longueur cible n'est pas présente dans les données d'entraînement. Les résultats expérimentaux montrent que la méthode proposée non seulement contrôle la longueur de génération, mais améliore également les scores ROUGE.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Codage positionnel pour contrôler la longueur de la séquence de sortie | Articles | HyperAI