HyperAIHyperAI

Command Palette

Search for a command to run...

FLAT : Extraction de NER chinois utilisant un Transformer à lattice plat

Xiaonan Li Hang Yan Xipeng Qiu Xuanjing Huang

Résumé

Récemment, la structure en treillis caractère-mot a été démontrée efficace pour la reconnaissance d'entités nommées en chinois (NER) en intégrant les informations lexicales. Toutefois, en raison de la complexité et de la dynamique de cette structure en treillis, la plupart des modèles existants basés sur le treillis peinent à exploiter pleinement le calcul parallèle des GPU et présentent généralement une vitesse d'inférence faible. Dans cet article, nous proposons FLAT : Flat-LAttice Transformer pour la NER chinoise, qui transforme la structure en treillis en une structure plate composée de segments (spans). Chaque segment correspond à un caractère ou à un mot latent, ainsi qu'à sa position dans le treillis original. Grâce à la puissance du Transformer et à une encodage de position soigneusement conçu, FLAT parvient à exploiter pleinement les informations du treillis tout en offrant une excellente capacité de parallélisation. Des expériences menées sur quatre jeux de données montrent que FLAT surpasse les autres modèles basés sur le lexique en termes de performance et d'efficacité.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp