HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 4 mois

Apprentissage par transfert adversaire pour la reconnaissance des entités nommées chinoises avec un mécanisme d'attention self-attention

{Yubo Chen Pengfei Cao Jun Zhao Shengping Liu Kang Liu}

Apprentissage par transfert adversaire pour la reconnaissance des entités nommées chinoises avec un mécanisme d'attention self-attention

Résumé

La reconnaissance d'entités nommées (NER) est une tâche fondamentale en traitement du langage naturel, qui consiste à déterminer les limites des entités et à les classer dans des catégories prédéfinies. Pour la tâche de NER en chinois, seule une quantité très limitée de données annotées est disponible. La tâche de NER chinois et celle de la segmentation des mots chinois (CWS) partagent de nombreuses similitudes en ce qui concerne les limites des mots. Toutefois, chacune de ces tâches présente également des spécificités propres. Les méthodes existantes pour le NER chinois ne tirent pas pleinement parti des informations de limites des mots issues de la CWS, ou bien elles ne parviennent pas à filtrer les caractéristiques spécifiques à la CWS. Dans cet article, nous proposons un nouveau cadre d'apprentissage par transfert adversarial afin d'exploiter pleinement les informations partagées sur les limites des entités entre les tâches, tout en empêchant l'influence des caractéristiques spécifiques à la CWS. En outre, puisque les caractères individuels peuvent fournir des indices importants lors de la prédiction du type d'entité, nous utilisons une attention auto-associative pour capturer explicitement les dépendances à longue portée entre deux jetons. Les résultats expérimentaux sur deux jeux de données largement utilisés montrent que notre modèle proposé surpasse de manière significative et cohérente les méthodes de pointe existantes.

Benchmarks

BenchmarkMéthodologieMétriques
chinese-named-entity-recognition-on-sighannerBiLSTM+CRF+adversarial+self-attention
F1: 90.64
chinese-named-entity-recognition-on-weibo-nerBiLSTM+CRF+adversarial+self-attention
F1: 53.08

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Apprentissage par transfert adversaire pour la reconnaissance des entités nommées chinoises avec un mécanisme d'attention self-attention | Articles de recherche | HyperAI