HyperAIHyperAI

Command Palette

Search for a command to run...

BertGCN : Classification de texte transductive en combinant GCN et BERT

Yuxiao Lin Yuxian Meng Xiaofei Sun Qinghong Han Kun Kuang Jiwei Li Fei Wu

Résumé

Dans ce travail, nous proposons BertGCN, un modèle qui combine le préentraînement à grande échelle et l’apprentissage transductif pour la classification de texte. BertGCN construit un graphe hétérogène à partir de l'ensemble de données et représente les documents comme des nœuds à l’aide de représentations BERT. En entraînant conjointement les modules BERT et GCN au sein de BertGCN, le modèle proposé parvient à tirer parti des avantages des deux approches : le préentraînement à grande échelle, qui exploite l’abondance de données brutes, et l’apprentissage transductif, qui permet d’apprendre conjointement des représentations pour les données d’entraînement et les données de test non étiquetées grâce à la propagation de l’influence des étiquettes par convolution de graphe. Les expériences montrent que BertGCN atteint des performances SOTA sur une large gamme de jeux de données de classification de texte. Le code est disponible à l’adresse suivante : https://github.com/ZeroRin/BertGCN.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
BertGCN : Classification de texte transductive en combinant GCN et BERT | Articles | HyperAI