HyperAIHyperAI
il y a 11 jours

Résolution de coreférence au niveau des mots

Vladimir Dobrovolskii
Résolution de coreférence au niveau des mots
Résumé

Les modèles récents de résolution de coréférence s'appuient fortement sur des représentations d'intervalles (spans) pour identifier les liens de coréférence entre des segments de mots. Étant donné que le nombre d'intervalles est de l'ordre de $O(n^2)$ en fonction de la longueur du texte, et que le nombre potentiel de liens atteint $O(n^4)$, des techniques de réduction (pruning) s'avèrent nécessaires afin de rendre cette approche calculable. Nous proposons plutôt de considérer les liens de coréférence entre des mots individuels, plutôt que des intervalles, puis de reconstruire ultérieurement les intervalles correspondants. Cette approche réduit la complexité du modèle de coréférence à $O(n^2)$, tout en permettant d'examiner tous les mentions potentielles sans avoir à en éliminer aucune par pruning. Nous montrons également que, avec ces modifications, SpanBERT se révèle nettement inférieur à RoBERTa pour la tâche de résolution de coréférence. Bien que très efficace, notre modèle obtient des performances compétitives par rapport aux systèmes récents de résolution de coréférence sur le benchmark OntoNotes.

Résolution de coreférence au niveau des mots | Articles de recherche récents | HyperAI