L’IA générique en pleine expansion dans l’évaluation de la recherche universitaire au Royaume-Uni : un potentiel de transformation, mais aussi des inquiétudes croissantes
Un rapport britannique révèle une utilisation croissante de l’intelligence artificielle générative (IAg) dans l’évaluation de la qualité de la recherche universitaire. Mené par l’Université de Bristol, ce premier examen national montre que certaines universités utilisent déjà des outils d’IAg pour préparer leurs soumissions au cadre national d’évaluation de la recherche (REF), un système qui détermine la répartition annuelle de près de 2 milliards de livres sterling en financement public. Bien que l’IAg puisse réduire considérablement les coûts et le temps nécessaires – estimés à 471 millions de livres pour le REF2021, soit environ 3 millions par établissement –, le rapport souligne un fort scepticisme parmi les chercheurs et professionnels du secteur, ainsi qu’un besoin urgent de gouvernance nationale. Le REF, qui sera révisé pour l’édition 2029, pèse lourdement sur les ressources des établissements d’enseignement supérieur (EES), dont les coûts devraient encore augmenter. Richard Watermeyer, professeur de l’enseignement supérieur à l’Université de Bristol, affirme que l’IAg pourrait transformer ce système en rendant l’évaluation plus efficace et équitable, malgré une opposition notable. L’étude a analysé 16 établissements, dont des universités du Russell Group et des institutions post-1992, révélant une utilisation variée : certaines utilisent l’IA pour collecter des preuves d’impact ou rédiger des études de cas, d’autres développent des outils internes ou recourent à l’IA pour évaluer et noter la recherche. Une enquête menée auprès de près de 400 chercheurs et agents administratifs montre que la majorité s’oppose fortement à l’usage de l’IA dans le cadre du REF, avec un taux de désaccord allant de 54 % à 75 % selon les étapes du processus. Le seul domaine où un soutien modéré existe (23 %) concerne l’aide à la rédaction des études de cas d’impact. Les réactions des responsables universitaires sont contrastées : certains voient l’IA comme inévitable et une opportunité d’innovation, tandis que d’autres expriment des doutes sur ses limites et une méfiance face à son adoption rapide. Des inégalités sont également observées : les établissements moins ressources (post-92) et les services administratifs sont plus favorables à l’IA, alors que les disciplines des lettres, arts et sciences humaines sont plus réticentes, souvent en raison d’un manque d’expérience. Les auteurs du rapport recommandent la mise en place de politiques nationales claires, de formations obligatoires, de protocoles de sécurité et d’un cadre de gouvernance pour l’IA dans le REF. Ils préconisent aussi la création d’une plateforme d’IA partagée, accessible à tous les établissements, afin de réduire les inégalités. La collaboration sectorielle, la transparence et le contrôle humain restent essentiels. Des experts comme Tom Crick (Swansea University) et Steven Hill (Research England) insistent sur la nécessité d’agir avec prudence, en évitant à la fois l’urgence et la passivité. Le rapport s’inscrit dans un contexte mondial où d’autres systèmes similaires (comme en Australie ou en Nouvelle-Zélande) ont été abandonnés, soulignant que le modèle britannique doit évoluer pour répondre aux défis du monde numérique. Guy Poppy, responsable de la recherche à l’Université de Bristol, souligne que ce rapport ouvre une discussion fondée sur des données, cruciale pour garantir une évaluation rigoureuse, responsable et transparente de la recherche au Royaume-Uni.
