GoLLIE : Des directives d’annotation améliorent l’extraction d’information en situation zéro-shot

Les grands modèles de langage (LLMs) combinés à l'ajustement des instructions ont réalisé des progrès significatifs en termes de généralisation à des tâches inédites. Cependant, ils ont été moins performants en Extraction d'Information (IE), restant en retard par rapport aux modèles spécifiques à la tâche. Généralement, les tâches d'IE sont caractérisées par des directives d'annotation complexes qui décrivent la tâche et fournissent des exemples aux humains. Les tentatives précédentes d'utiliser ces informations ont échoué, même avec les plus grands modèles, car ceux-ci ne sont pas capables de suivre les directives sans adaptation préalable. Dans cet article, nous proposons GoLLIE (Grand Modèle de Langage Suivant les Directives pour l'IE), un modèle capable d'améliorer les résultats en situation zéro-shot sur des tâches d'IE inédites grâce à son ajustement fin pour respecter les directives d'annotation. Une évaluation exhaustive démontre empiriquement que GoLLIE est capable de généraliser et de suivre des directives inédites, surpassant ainsi les tentatives précédentes d'extraction d'information zéro-shot. L'étude par désactivation montre que des directives détaillées sont essentielles pour obtenir de bons résultats.