Un réseau séquence-à-ensemble pour la reconnaissance nommée imbriquée

La reconnaissance d'entités nommées (NER) est une tâche largement étudiée en traitement du langage naturel. Récemment, un nombre croissant de recherches se concentrent sur la NER imbriquée (nested NER). Les méthodes basées sur les spans, qui traitent la reconnaissance d'entités comme une tâche de classification de spans, permettent naturellement de gérer les entités imbriquées. Toutefois, elles souffrent d’un espace de recherche très important et du manque d’interactions entre les entités. Pour résoudre ces problèmes, nous proposons un nouveau modèle neuronal séquence-à-ensemble pour la NER imbriquée. Contrairement aux approches qui spécifient à l’avance les spans candidates, nous fournissons un ensemble fixe de vecteurs apprenables afin d’acquérir les motifs des spans pertinentes. Nous utilisons un décodeur non autoregressif pour prédire l’ensemble final des entités en une seule passe, ce qui nous permet de capturer les dépendances entre les entités. Par rapport aux méthodes séquence-à-séquence, notre modèle est plus adapté à ce type de tâche de reconnaissance non ordonnée, car il est insensible à l’ordre des étiquettes. En outre, nous utilisons une fonction de perte fondée sur un appariement bipartite pour calculer la perte d’entraînement globale. Les résultats expérimentaux montrent que notre modèle atteint l’état de l’art sur trois corpus de NER imbriquée : ACE 2004, ACE 2005 et KBP 2017. Le code est disponible à l’adresse suivante : https://github.com/zqtan1024/sequence-to-set.