Intégration améliorée des caractéristiques pour la reconnaissance d'entités nommées

Il a été démontré que la reconnaissance d'entités nommées (NER) peut bénéficier de l'intégration des informations structurées à longue portée capturées par les arbres de dépendance. Nous pensons que cela s'explique par le fait que les deux types de caractéristiques — l'information contextuelle extraite des séquences linéaires et l'information structurée capturée par les arbres de dépendance — peuvent se compléter mutuellement. Toutefois, les approches existantes se sont principalement concentrées sur le stacking de réseaux de neurones à mémoire à long terme (LSTM) et de réseaux de neurones graphiques, tels que les réseaux de convolution graphique (GCN), afin de construire des modèles NER améliorés. Dans ces approches, le mécanisme exact d’interaction entre les deux types de caractéristiques reste peu clair, et les gains de performance ne semblent pas significatifs. Dans ce travail, nous proposons une solution simple et robuste pour intégrer les deux types de caractéristiques à l’aide de notre modèle Synergized-LSTM (Syn-LSTM), qui permet de capturer de manière explicite les interactions entre ces deux types de caractéristiques. Nous menons des expérimentations approfondies sur plusieurs jeux de données standards couvrant quatre langues. Les résultats montrent que le modèle proposé atteint une meilleure performance que les approches antérieures tout en nécessitant moins de paramètres. Une analyse approfondie confirme également que notre modèle est capable de capturer des dépendances plus longues par rapport à des modèles de référence performants.