HyperAIHyperAI
il y a 11 jours

Résolution de coreférence basée sur l'apprentissage par renforcement profond en boucle complète

{Hongliang Fei, Xu Li, Dingcheng Li, Ping Li}
Résolution de coreférence basée sur l'apprentissage par renforcement profond en boucle complète
Résumé

Les modèles récents basés sur les réseaux de neurones ont considérablement progressé dans la tâche de résolution de coreférence. Toutefois, les modèles actuels de coreférence basés sur les réseaux de neurones sont généralement entraînés à l’aide de fonctions de perte heuristiques, calculées sur une séquence de décisions locales. Dans cet article, nous proposons un modèle de résolution de coreférence fondé sur l’apprentissage par renforcement, entièrement end-to-end, permettant d’optimiser directement les métriques d’évaluation de la coreférence. Plus précisément, nous adaptons l’approche d’état de l’art basée sur le classement d’ordre supérieur des mentions, proposée par Lee et al. (2018), en un modèle de gradient de politique renforcé en intégrant une récompense associée à une séquence d’actions de liaison de coreférence. En outre, nous introduisons une régularisation à entropie maximale afin d’assurer une exploration adéquate et de prévenir la convergence prématurée du modèle vers un optimum local défaillant. Le modèle proposé atteint une nouvelle performance record sur la base de données anglaise OntoNotes v5.0.

Résolution de coreférence basée sur l'apprentissage par renforcement profond en boucle complète | Articles de recherche récents | HyperAI