Une spécificité de tâche plus approfondie améliore l'extraction conjointe d'entités et de relations

L'apprentissage multi-tâches (MTL) constitue une méthode efficace pour apprendre simultanément des tâches corrélées, mais la conception de modèles MTL exige de déterminer précisément quelles et combien de paramètres doivent être spécifiques à une tâche, plutôt que partagés entre celles-ci. Nous examinons cette question dans le cadre de l'apprentissage conjoint de la reconnaissance d'entités nommées (NER) et de l'extraction de relations (RE), et proposons une nouvelle architecture neuronale permettant une spécificité tâche plus poussée que les approches antérieures. Plus précisément, nous introduisons des couches supplémentaires bidirectionnelles à réseaux de neurones récurrents (RNN) spécifiques à chaque tâche, tant pour la NER que pour la RE, et ajustons indépendamment le nombre de couches partagées et spécifiques à chaque tâche selon les différentes bases de données. Nous obtenons des résultats de pointe (SOTA) pour les deux tâches sur le jeu de données ADE ; sur le jeu de données CoNLL04, nous atteignons des résultats SOTA pour la tâche de NER et des résultats compétitifs pour celle de RE, tout en utilisant un ordre de grandeur moins de paramètres entraînables que l'architecture SOTA actuelle. Une étude d'ablation confirme l'importance cruciale des couches supplémentaires spécifiques à la tâche pour atteindre ces performances. Nos résultats suggèrent que les solutions antérieures à l'apprentissage conjoint de la NER et de la RE sous-estiment la spécificité tâche, et mettent en évidence l'importance fondamentale d'un équilibre correct entre le nombre de paramètres partagés et spécifiques dans les approches MTL en général.