Pousser les limites de l’analyse syntaxique AMR grâce à l’apprentissage auto-supervisé

La représentation sémantique abstraite (AMR) a connu une croissance notable de ses performances au cours des deux dernières années, en raison à la fois de l’impact de l’apprentissage transféré et du développement d’architectures novatrices spécifiques à l’AMR. Parallèlement, les techniques d’apprentissage auto-supervisé ont permis d’approfondir les performances d’autres applications du traitement automatique du langage naturel, telles que la traduction automatique ou la réponse aux questions. Dans cet article, nous explorons différentes manières d’utiliser des modèles entraînés pour améliorer les performances de la tâche de parsing AMR, notamment par la génération de textes synthétiques et d’annotations AMR, ainsi que par le raffinement de l’oracle d’actions. Nous démontrons que, sans aucune annotation humaine supplémentaire, ces techniques permettent d’améliorer un parseur déjà performant et d’atteindre des résultats de pointe sur les jeux de données AMR 1.0 et AMR 2.0.