HyperAIHyperAI

Command Palette

Search for a command to run...

HIBERT : Pré-entraînement au niveau du document de transformateurs bidirectionnels hiérarchiques pour la synthèse de documents

Xingxing Zhang Furu Wei Ming Zhou

Résumé

Les modèles de résumé extractif neuronaux utilisent généralement un encodeur hiérarchique pour l'encodage des documents et sont formés à l'aide d'étiquettes au niveau des phrases, créées heuristiquement par des méthodes basées sur des règles. La formation de l'encodeur hiérarchique avec ces étiquettes \emph{imprécises} est un défi. Inspirés par les travaux récents sur la préformation d'encodeurs de phrases transformers \cite{devlin:2018:arxiv}, nous proposons {\sc Hibert} (abréviation de {\bf HI}erarchique {\bf B}idirectionnel {\bf E}ncodeur {\bf R}epresentations from {\bf T}ransformers) pour l'encodage des documents et une méthode pour le préformer en utilisant des données non étiquetées. Nous appliquons le {\sc Hibert} préformé à notre modèle de résumé, et il surpasse son homologue initialisé aléatoirement de 1,25 ROUGE sur le jeu de données CNN/Dailymail et de 2,0 ROUGE sur une version du jeu de données du New York Times. Nous obtenons également les meilleures performances actuelles sur ces deux jeux de données.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
HIBERT : Pré-entraînement au niveau du document de transformateurs bidirectionnels hiérarchiques pour la synthèse de documents | Articles | HyperAI