Stanford chercheurs en débat sur l’usage de l’IA : entre outil précieux et menace pour la rigueur académique
Face à l’essor des outils d’intelligence artificielle (IA) dans la recherche académique à Stanford, les enseignants-chercheurs de diverses disciplines s’interrogent sur leur intégration sans compromettre la rigueur scientifique, l’éthique ou le jugement humain. Kathryn Olivarius, professeure agrégée d’histoire, adopte une posture prudente. Son travail sur les États-Unis du XIXe siècle repose sur des archives physiques non numérisées, des lectures approfondies et des interprétations originales. « ChatGPT ou l’IA générative n’est pas une archive connectée », souligne-t-elle, rappelant que de nombreux étudiants supposent à tort que toutes les sources historiques sont accessibles en ligne. Bien qu’elle ait utilisé l’IA comme « excellent correcteur orthographique », Olivarius insiste sur le fait qu’elle ne l’utiliserait jamais pour rédiger des brouillons. « Pour la plupart des chercheurs, la pensée critique et les bonnes idées naissent du travail acharné de l’écriture », affirme-t-elle. Elle rejette toute externalisation de cette phase fondamentale du travail intellectuel. Elle soulève également des préoccupations éthiques, qualifiant la situation actuelle de « Far West » : « Il n’existe pas encore de consensus sur l’éthique de l’IA. Si une idée n’est pas la vôtre, elle n’est pas à vous — on peut légitimement parler de plagiat. » Ses craintes s’étendent au cadre pédagogique : après avoir fait générer un essai par une IA dans son domaine, elle a constaté des erreurs interprétatives graves. « Elle se trompe sur des points fondamentaux, et seul un expert peut les détecter », précise-t-elle. Pour les étudiants non spécialistes, ces erreurs passent inaperçues. Face à ces défis, certains enseignants cherchent à accompagner une utilisation plus responsable des outils. Jooyeon Hahm, responsable de la formation et du conseil en sciences des données au Centre de recherche interdisciplinaire numérique, observe une évolution dans les demandes des chercheurs : « Les consultations passent de la sensibilisation générale à l’IA vers des évaluations précises d’outils et des applications techniques. » Elle met en lumière un intérêt croissant pour des stratégies d’utilisation efficaces des interfaces de programmation (API), afin de maîtriser les coûts tout en tirant parti des capacités de l’IA. « Cette évolution reflète une relation mûre avec la technologie, passant de l’expérimentation à une intégration réfléchie, critique et éthique », affirme-t-elle. Les chercheurs demandent désormais des explications sur le fonctionnement des systèmes d’IA, notamment sur l’architecture des transformateurs et les mécanismes sous-jacents, tout en accordant une attention accrue à l’éthique et aux bonnes pratiques. Dans les recherches qualitatives, les modèles linguistiques à grande échelle sont testés pour des tâches comme le codage ou l’extraction de données, mais avec une vigilance constante face aux « hallucinations » et aux sorties erronées pouvant compromettre la validité des résultats. « Je ne pense pas que l’IA révolutionne fondamentalement les compétences nécessaires aux chercheurs », affirme Hahm. « Au contraire, les compétences traditionnelles de lecture critique, d’écriture et de pensée sont plus importantes que jamais. » Jef Caers, professeur de sciences de la Terre et planétaires, travaille dans un domaine où l’IA est déjà largement intégrée. Son recherche porte sur la prise de décision dans l’exploration minière et l’énergie géothermique, où l’IA permet d’analyser des ensembles de données complexes impossibles à traiter manuellement. Elle aide à optimiser les décisions tout au long de la chaîne de valeur minière. Caers souligne que l’IA va au-delà de l’efficacité : « Lorsqu’on explore des ressources, on oublie souvent l’impact environnemental », dit-il. En intégrant plus tôt les considérations écologiques et sociales, l’IA permet de réduire les déchets et d’améliorer les résultats à long terme. « Les opérations sont optimisées non pas seulement pour la productivité, mais aussi pour la durabilité. » Malgré l’attention portée à l’IA générative, Caers estime que son rôle dans la recherche est souvent exagéré. « L’IA ne comprendra jamais la complexité des systèmes », affirme-t-il. À Stanford, le défi n’est pas d’adopter la technologie, mais de s’assurer qu’elle renforce la recherche sans affaiblir la rigueur intellectuelle, la responsabilité et la collaboration qui sont au cœur de l’académie.
