HyperAIHyperAI

Command Palette

Search for a command to run...

Évaluer autrement : la réinvention des examens à l’ère de l’intelligence artificielle générative

En 2025, l’éducation supérieure fait face à un tournant décisif avec l’essor des outils d’intelligence artificielle générative, qui remettent en question les fondements mêmes de l’évaluation des étudiants. Jason M. Lodge, psychologue éducatif, lance un appel urgent aux universités : il ne s’agit plus de chercher à « piéger » les étudiants ou de lutter contre l’IA, mais de repenser radicalement les modalités d’évaluation. Dans une synthèse publiée en juillet 2025, Lodge réactualise son cadre de 2023 en six approches possibles : ignorer, interdire, surveiller, embrasser, contourner ou réinventer. Il conclut que seule la dernière — une réforme systémique — permet de répondre à la réalité d’un monde où l’IA est omniprésente, intégrée dans la vie étudiante et professionnelle. Les stratégies défensives comme l’interdiction ou la surveillance (proctoring) s’avèrent non seulement inefficaces face aux outils émergents comme Cluely ou CheatingDaddy, capables d’assister en temps réel les étudiants pendant les évaluations, mais aussi injustes, car elles pénalisent les plus vulnérables et créent un climat de méfiance. Face à l’échec de ces approches, de nombreuses institutions adoptent des solutions intermédiaires. Certaines, comme l’Université d’Ohio, imposent désormais l’utilisation de l’IA en cours, afin de développer une « littératie IA » chez les étudiants. D’autres, comme l’Université de Queensland, reprennent les oraux interactifs à grande échelle, où chaque étudiant doit défendre ses idées en dialogue direct avec un enseignant. Ces évaluations en temps réel, selon Lodge, révèlent des nuances d’appréhension que les essais rédigés à distance ne peuvent capter. Des approches similaires incluent les projets personnalisés, les débats, les mises en situation ou les portfolios, qui exigent une réflexion originale, un processus documenté et une prise de décision en contexte — des éléments que l’IA peine à imiter. Une autre voie consiste à intégrer l’IA comme partenaire pédagogique. Plutôt que de l’interdire, certains enseignants demandent aux étudiants d’utiliser ChatGPT pour produire un premier brouillon, puis de le critiquer, de le corriger, de le contextualiser. Cette méthode, soutenue par Joseph Moxley et Alan Greene, transforme l’évaluation en un exercice de jugement critique, de réécriture et d’appropriation intellectuelle. L’accent est mis sur la qualité du processus : la manière dont l’étudiant formule sa requête, évalue la réponse, l’adapte. Des techniques comme la génération augmentée par récupération (RAG) ou la création de petits modèles GPT sur des données de cours permettent d’aligner l’IA sur le contenu enseigné, renforçant ainsi l’intégrité pédagogique. Ces expérimentations révèlent une vérité fondamentale : les évaluations doivent cesser de mesurer la mémoire ou la capacité à produire un texte fluide, compétences désormais dominées par l’IA. Elles doivent au contraire valoriser des compétences humaines incontournables : la créativité, la réflexion critique, l’éthique, la capacité à repérer les biais ou les erreurs d’IA. Marc Watkins et Terry Underwood insistent sur la nécessité de prioriser la validité des évaluations — c’est-à-dire mesurer ce qu’on veut vraiment mesurer — plutôt que la fiabilité ou l’efficacité. Les notes automatiques, même si elles sont cohérentes, risquent de masquer des insights originaux ou des progrès significatifs. Enfin, cette transformation ne peut se faire sans un changement culturel. Il faut décentrer le système des notes et des compétitions, favoriser la collaboration, offrir des choix créatifs (« unessays » sous forme de podcast, zine ou vidéo), et impliquer les étudiants dans la conception des évaluations. Comme le souligne Stephen Fitzpatrick, de nombreux étudiants ne trichent pas — ils sont même frustrés de voir leurs pairs profiter de l’IA sans effort. Une évaluation authentique, qui met en lumière le processus, protège ces étudiants et renforce leur motivation intrinsèque. En somme, l’IA générative n’est pas un ennemi, mais un catalyseur. Elle force les institutions à repenser non seulement comment on évalue, mais pourquoi on évalue. L’intégrité pédagogique ne réside plus dans l’absence de triche, mais dans l’authenticité du parcours d’apprentissage. L’avenir de l’évaluation en milieu universitaire réside donc dans des pratiques humaines, réflexives, centrées sur le sens, où l’IA est un outil au service de l’humain, non son substitut.

Liens associés

Évaluer autrement : la réinvention des examens à l’ère de l’intelligence artificielle générative | Articles tendance | HyperAI