Une nouvelle étude révèle que l’IA accompagnée par un humain bat les tuteurs humains seuls dans les classes britanniques
Une étude exploratoire menée par Eedi en collaboration avec Google DeepMind révèle que l’accompagnement pédagogique hybride, mêlant intelligence artificielle et enseignant humain, dépasse même les résultats obtenus par un tutorat humain seul. Cette recherche, conduite durant l’été 2025 dans cinq classes secondaires britanniques, teste un modèle où l’instruction repose sur LearnLM, une série de modèles d’IA développés par Google et Google DeepMind spécifiquement pour l’apprentissage, fondés sur des principes pédagogiques solides. Les résultats montrent que l’équipe humain-IA est aussi efficace qu’un tuteur humain expérimenté pour corriger immédiatement les erreurs (93,0 % contre 91,2 %) et pour identifier et résoudre les erreurs conceptuelles sous-jacentes (95,4 % contre 94,9 %). Ces résultats s’inscrivent dans une démarche progressive : une étude contrôlée randomisée (RCT) précédente menée par Eedi en 2023-2024 avec 2 901 élèves avait déjà démontré que son modèle statique — composé de questions diagnostiques, de vidéos et d’aides personnalisées — permettait aux élèves d’acquérir entre deux et quatre mois supplémentaires de progrès en mathématiques sur une année scolaire. Ce modèle a servi de base à la nouvelle expérimentation. L’un des indicateurs les plus prometteurs est la « transfert de connaissance » : la capacité d’un élève à appliquer ce qu’il a appris à un nouveau problème. Alors qu’un tuteur humain seul améliorait les performances de 4,5 points de pourcentage, l’équipe humain-IA a obtenu une amélioration de 10 points, soit un doublement de l’effet pédagogique. L’IA s’est révélée être un amplificateur puissant, capable de libérer le tuteur humain de tâches cognitives lourdes comme l’analyse des messages des élèves ou la rédaction de réponses pédagogiques. Les enseignants ont souligné que l’IA agissait comme un « délestage cognitif », leur permettant de superviser plusieurs élèves simultanément tout en maintenant une qualité d’interaction proche du tutorat individuel. Une vérification complète des messages générés par l’IA n’a révélé aucun contenu nuisible, et seulement 0,1 % comportaient des erreurs factuelles. Les tuteurs ont approuvé 82,3 % des suggestions de l’IA sans modification ou avec des ajustements mineurs. Toutefois, l’humain reste indispensable pour modérer le ton et le rythme de l’interaction. Les corrections les plus fréquentes (44,3 %) visaient à atténuer une question socratique jugée trop intrusive ou frustrante par l’élève, tandis que 19,5 % des ajustements visaient à adoucir une formulation jugée trop mécanique ou « transactionnelle ». L’IA, bien que rigoureuse et logique, manque de souplesse émotionnelle, ce qui renforce le rôle du tuteur comme modérateur pédagogique et affectif. Ces résultats marquent une avancée majeure pour l’IA responsable en éducation. Ils ouvrent la voie à un essai contrôlé randomisé à grande échelle aux États-Unis en 2026, mené par Eedi en partenariat avec Imagine Learning, pour évaluer l’efficacité du modèle dans des contextes diversifiés. Un autre essai au Royaume-Uni, financé par l’Institut virtuel d’ingénierie de l’apprentissage, évaluera à long terme les gains d’apprentissage via l’évaluation STAR. « Pendant des générations, le tutorat individuel a été un privilège réservé à quelques-uns. Cette recherche apporte la première preuve définitive que l’IA peut offrir cette qualité d’enseignement à grande échelle, à un coût accessible », affirme Ben Caulfield, fondateur et PDG d’Eedi. L’objectif est désormais de rendre l’apprentissage personnalisé universel, indépendamment du revenu familial. Les experts du secteur saluent cette approche comme une étape cruciale vers une éducation plus équitable. Selon Irina Jurenka, chercheuse chez Google DeepMind, « cette recherche montre que l’IA peut être un outil puissant, sûr et efficace lorsqu’elle est intégrée avec un contrôle humain. La prochaine étape est la généralisation ».
