Command Palette
Search for a command to run...
Résolution de coreférence basée sur l'apprentissage par renforcement profond en boucle complète
{Hongliang Fei Xu Li Dingcheng Li Ping Li}

Résumé
Les modèles récents basés sur les réseaux de neurones ont considérablement progressé dans la tâche de résolution de coreférence. Toutefois, les modèles actuels de coreférence basés sur les réseaux de neurones sont généralement entraînés à l’aide de fonctions de perte heuristiques, calculées sur une séquence de décisions locales. Dans cet article, nous proposons un modèle de résolution de coreférence fondé sur l’apprentissage par renforcement, entièrement end-to-end, permettant d’optimiser directement les métriques d’évaluation de la coreférence. Plus précisément, nous adaptons l’approche d’état de l’art basée sur le classement d’ordre supérieur des mentions, proposée par Lee et al. (2018), en un modèle de gradient de politique renforcé en intégrant une récompense associée à une séquence d’actions de liaison de coreférence. En outre, nous introduisons une régularisation à entropie maximale afin d’assurer une exploration adéquate et de prévenir la convergence prématurée du modèle vers un optimum local défaillant. Le modèle proposé atteint une nouvelle performance record sur la base de données anglaise OntoNotes v5.0.
Benchmarks
| Benchmark | Méthodologie | Métriques |
|---|---|---|
| coreference-resolution-on-conll-2012 | reinforced model + ELMO | Avg F1: 73.8 |
| coreference-resolution-on-ontonotes | Reinforced + ELMo | F1: 73.8 |
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.