HyperAIHyperAI
il y a 11 jours

FLAT : Extraction de NER chinois utilisant un Transformer à lattice plat

Xiaonan Li, Hang Yan, Xipeng Qiu, Xuanjing Huang
FLAT : Extraction de NER chinois utilisant un Transformer à lattice plat
Résumé

Récemment, la structure en treillis caractère-mot a été démontrée efficace pour la reconnaissance d'entités nommées en chinois (NER) en intégrant les informations lexicales. Toutefois, en raison de la complexité et de la dynamique de cette structure en treillis, la plupart des modèles existants basés sur le treillis peinent à exploiter pleinement le calcul parallèle des GPU et présentent généralement une vitesse d'inférence faible. Dans cet article, nous proposons FLAT : Flat-LAttice Transformer pour la NER chinoise, qui transforme la structure en treillis en une structure plate composée de segments (spans). Chaque segment correspond à un caractère ou à un mot latent, ainsi qu'à sa position dans le treillis original. Grâce à la puissance du Transformer et à une encodage de position soigneusement conçu, FLAT parvient à exploiter pleinement les informations du treillis tout en offrant une excellente capacité de parallélisation. Des expériences menées sur quatre jeux de données montrent que FLAT surpasse les autres modèles basés sur le lexique en termes de performance et d'efficacité.

FLAT : Extraction de NER chinois utilisant un Transformer à lattice plat | Articles de recherche récents | HyperAI