Apprentissage semi-supervisé multi-tâches pour la classification discourse déséquilibrée

Au fil du temps, l’évolution des schémas d’étiquetage peut entraîner de petites différences rendant les jeux de données basés sur des schémas anciens inutilisables. Cela empêche les chercheurs de s’appuyer sur les travaux antérieurs d’annotation et conduit, en particulier dans le domaine de l’apprentissage discourse, à l’existence de nombreux jeux de données petits et déséquilibrés par rapport aux classes. Dans ce travail, nous montrons qu’une approche d’apprentissage multitâche peut combiner des jeux de données discourse provenant de domaines similaires et divers pour améliorer la classification discourse. Nous obtenons une amélioration de 4,9 % en score Micro F1 par rapport aux meilleures performances actuelles sur le jeu de données NewsDiscourse, l’un des plus grands jeux de données discourse récemment publiés, en partie grâce aux corrélations entre les étiquettes des différentes tâches, qui renforcent les performances des classes sous-représentées. Nous proposons également une revue approfondie d’autres techniques proposées pour faire face aux problèmes de ressources limitées en traitement automatique des langues, et montrons qu’aucune de ces approches n’améliore la précision de classification dans notre contexte.