Universités en danger : la domination croissante de Big Tech sur l’enseignement par l’IA
Les universités risquent de perdre leur autonomie intellectuelle face à l’expansion rapide des outils d’intelligence artificielle pilotée par les géants de la tech, prévient une professeure. Dans un essai publié par le Civics of Technology Project, une plateforme dédiée à l’analyse des impacts sociaux de la technologie, Bruna Damiana Heinsfeld, chargée de cours en technologies d’apprentissage à l’Université du Minnesota, met en garde contre l’emprise croissante de Silicon Valley sur la définition même du savoir, de la vérité et de la valeur académique. Selon elle, les établissements d’enseignement, en s’engageant dans des partenariats multimillionaires avec des entreprises spécialisées en IA, ou en intégrant des outils corporate dans leurs salles de classe, adoptent un modèle où les technologies ne sont plus des outils neutres, mais des extensions de l’identité des entreprises qui les produisent. Face à la pression de paraître « prêts à l’IA », les universités s’éloignent progressivement de la recherche critique pour se tourner vers une logique de conformité, au risque de laisser les décisions sur l’apprentissage aux mains des géants technologiques. Heinsfeld souligne que l’IA ne se contente pas d’être un outil : elle incarne une vision du monde où l’efficacité est un bien suprême, l’échelle une valeur intrinsèque, et les données le langage privilégié de la vérité. En adoptant ces systèmes sans les questionner, les universités risquent de transmettre à leurs étudiants l’idée que la logique des entreprises tech n’est pas seulement pratique, mais inévitable. Un exemple frappant est celui de l’Université d’État de Californie, qui a signé en février un contrat de 16,9 millions de dollars pour déployer ChatGPT Edu sur 23 campus, offrant ainsi un accès à plus de 460 000 étudiants et 63 000 membres du personnel jusqu’en 2026. L’été dernier, elle a même organisé un « camp d’IA » alimenté par Amazon Web Services (AWS), où les étudiants ont été accueillis sous des enseignes corporate, des cahiers marqués AWS et des goodies promotionnels. Ce phénomène ne se limite pas aux décisions stratégiques institutionnelles. Kimberley Hardcastle, professeure de gestion et de marketing à l’Université de Northumbria au Royaume-Uni, explique que l’IA transforme silencieusement les processus fondamentaux de l’apprentissage. Les outils que les étudiants utilisent pour comprendre le monde — ce qu’elle appelle des « médiateurs épistémiques » — ont changé, et les universités doivent repenser leurs évaluations. Elle plaide pour des exigences claires : les étudiants devraient justifier leur raisonnement, indiquer les sources qu’ils ont consultées en dehors de l’IA, et vérifier les informations à partir de preuves primaires. Elle propose aussi des « points de contrôle épistémiques » intégrés au cours, moments où les étudiants doivent s’interroger : « Utilise-je cet outil pour enrichir ma pensée, ou pour la remplacer ? Ai-je compris les concepts fondamentaux, ou me contente-je des résumés de l’IA ? Comprends-je vraiment, ou ne fais-je que mémoriser ? » Le véritable danger, selon Heinsfeld, est de laisser les entreprises définir ce qui est légitime comme savoir. Pour Hardcastle, c’est davantage le risque que les étudiants ne sachent plus évaluer la vérité par eux-mêmes. Toutes deux insistent : l’éducation doit rester un espace où l’on apprend à penser, pas seulement à manipuler des outils. « L’éducation devrait être l’endroit où nous examinons les architectures de nos outils », écrit Heinsfeld. Sinon, elle risque de devenir le laboratoire des systèmes qu’elle devrait critiquer.
