Sur l’utilisation de BERT pour l’évaluation automatisée des essais : apprentissage conjoint d’une représentation multi-échelle des essais

Ces dernières années, les modèles pré-entraînés sont devenus dominants dans la plupart des tâches de traitement du langage naturel (NLP). Toutefois, dans le domaine de l’évaluation automatique des essais (Automated Essay Scoring, AES), les modèles pré-entraînés tels que BERT n’ont pas été correctement exploités pour surpasser d’autres modèles d’apprentissage profond comme les LSTM. Dans cet article, nous proposons une nouvelle représentation multi-échelle des essais pour BERT, pouvant être apprise de manière conjointe. Nous utilisons également plusieurs fonctions de perte ainsi que le transfert d’apprentissage à partir d’essais provenant de domaines différents afin d’améliorer davantage les performances. Les résultats expérimentaux montrent que notre approche tire un bénéfice significatif de l’apprentissage conjoint de la représentation multi-échelle des essais et atteint presque le meilleur résultat parmi tous les modèles d’apprentissage profond sur la tâche ASAP. De plus, notre représentation multi-échelle se généralise efficacement au jeu de données CommonLit Readability Prize, ce qui suggère que la nouvelle représentation textuelle proposée dans cet article pourrait constituer un choix nouveau et efficace pour les tâches impliquant des textes longs.