HyperAIHyperAI

Command Palette

Search for a command to run...

DocBERT : BERT pour la classification de documents

Ashutosh Adhikari Achyudh Ram Raphael Tang Jimmy Lin

Résumé

À notre connaissance, nous présentons la première application de BERT à la classification de documents. Quelques caractéristiques de cette tâche pourraient amener à penser que BERT n'est pas le modèle le plus approprié : les structures syntaxiques sont moins importantes pour les catégories de contenu, les documents peuvent souvent être plus longs que les entrées typiques de BERT, et ils peuvent avoir plusieurs étiquettes. Néanmoins, nous montrons qu'un modèle de classification simple utilisant BERT est capable d'atteindre l'état de l'art sur quatre ensembles de données populaires. Pour atténuer les coûts computationnels associés à l'inférence avec BERT, nous transmettons les connaissances de BERT-large à des LSTM bidirectionnelles plus petites, atteignant une parité avec BERT-base sur plusieurs ensembles de données en utilisant 30 fois moins de paramètres. La contribution principale de notre article est l'amélioration des baselines qui peuvent servir de fondement pour des travaux futurs.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
DocBERT : BERT pour la classification de documents | Articles | HyperAI