HyperAIHyperAI
il y a 2 mois

Architectures neuronales pour la reconnaissance d'entités nommées

Guillaume Lample; Miguel Ballesteros; Sandeep Subramanian; Kazuya Kawakami; Chris Dyer
Architectures neuronales pour la reconnaissance d'entités nommées
Résumé

Les systèmes de reconnaissance d'entités nommées les plus avancés s'appuient fortement sur des caractéristiques élaborées manuellement et sur des connaissances spécifiques au domaine pour apprendre efficacement à partir des petits corpus d'entraînement supervisés disponibles. Dans cet article, nous présentons deux nouvelles architectures neuronales : l'une repose sur des LSTM bidirectionnelles et des champs aléatoires conditionnels, et l'autre construit et étiquette des segments en utilisant une approche basée sur des transitions inspirée par les analyseurs décalage-réduction (shift-reduce parsers). Nos modèles s'appuient sur deux sources d'information concernant les mots : des représentations de mots basées sur les caractères apprises à partir du corpus supervisé, et des représentations de mots non supervisées apprises à partir de corpus non annotés. Nos modèles obtiennent des performances de pointe en reconnaissance d'entités nommées (NER) dans quatre langues sans recourir à aucune connaissance ou ressource spécifique à une langue, comme des listes de noms propres (gazetteers).