HyperAIHyperAI

Command Palette

Search for a command to run...

Affiner BERT pour la synthèse extractive

Yang Liu

Résumé

BERT, un modèle de Transformer pré-entraîné, a obtenu des performances révolutionnaires sur plusieurs tâches de traitement du langage naturel (NLP). Dans cet article, nous décrivons BERTSUM, une variante simplifiée de BERT, destinée à la synthèse extractive. Notre système est à l'état de l'art sur le jeu de données CNN/Dailymail, surpassant le système précédemment le plus performant avec une amélioration de 1,65 en ROUGE-L. Les codes permettant de reproduire nos résultats sont disponibles à l'adresse suivante : https://github.com/nlpyang/BertSum


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Affiner BERT pour la synthèse extractive | Articles | HyperAI