Stanford AI Researchers Prioritize Depth Over Speed to Build Trustworthy Technology
À Stanford, des chercheurs utilisent l’intelligence artificielle (IA) non pas pour accélérer à tout prix, mais pour explorer avec rigueur, prudence et vision à long terme. Contrairement au célèbre mantra de Silicon Valley « bougez vite et cassez des choses », l’approche académique s’inscrit dans une logique de scrutiny, de profondeur scientifique et de responsabilité. Cette posture est incarnée par des équipes issues de toutes les écoles de l’université, travaillant à dépasser les limites de l’IA tout en s’assurant qu’elle soit fiable, éthique et bénéfique pour la société. Yuyan Wang, professeure agrégée de marketing à la Graduate School of Business, a quitté l’industrie (Uber, Google DeepMind) pour revenir à l’académie, frustrée par l’opacité des algorithmes qui décident des contenus en ligne. Elle milite pour des systèmes plus transparents, fondés sur la psychologie et l’économie comportementale, capables de prédire les intentions des utilisateurs sans recourir à des données intrusives. Selon elle, l’IA générale (AGI) ne sera possible qu’en comprenant non seulement comment les modèles fonctionnent, mais aussi pourquoi les humains agissent ainsi. Dans le domaine médical, Roxana Daneshjou, professeure de sciences des données biomédicales, développe des outils d’IA pour améliorer les soins, mais met en garde contre les risques : biais, sycophantisme des grands modèles linguistiques (qui disent ce que l’on veut entendre), et dangers d’une mise en œuvre prématurée. Son laboratoire a testé 80 experts sur des modèles de langage médicaux, révélant des failles critiques. Pour elle, l’IA doit servir à renforcer les professionnels, pas les remplacer. En éducation, Dora Demszky, professeure en sciences des données éducatives, met l’accent sur le rôle du professeur comme gardien du processus. Ses projets visent à aider les enseignants à mieux évaluer les interactions en classe, adapter les programmes, ou produire des diagrammes mathématiques personnalisés, tout en tenant compte des besoins variés des élèves, y compris ceux qui ne parlent pas anglais comme langue maternelle. Dans les sciences de la Terre, Jef Caers, professeur de sciences de la Terre, a fondé Mineral X pour repenser l’extraction des métaux essentiels à la transition énergétique. Grâce à une IA inspirée des systèmes de jeu d’échecs, son équipe a identifié un gisement de cuivre prometteur avec un nombre minimal de forages. Le projet repose sur des données géospatiales massives, allant de cartes anciennes du Congo à des mesures géophysiques à 10 km de profondeur. Aditi Sheshadri, professeure en sciences du système terrestre, utilise l’IA pour mieux comprendre les ondes gravitationnelles atmosphériques, des phénomènes clés pour la modélisation climatique mais trop petits pour être captés par les modèles actuels. Son projet Datawave réunit des observations, simulations haute résolution et algorithmes d’IA pour réduire les incertitudes des prévisions climatiques. Dans le droit, le laboratoire Liftlab, dirigé par Megan Ma et Julian Nyarko, cherche à distinguer la réalité de la hype autour de l’IA juridique. Il évalue des simulations immersives pour former les jeunes avocats, développe des outils pour améliorer les contrats et détecter les biais raciaux, en insistant sur le fait que l’IA doit servir à renforcer le jugement humain, pas l’effacer. Chelsea Finn, professeure en informatique, repousse les frontières de la robotique grâce à des modèles d’apprentissage automatique capables d’apprendre à partir de données réelles. Son projet DROID, une base de données ouverte de 50 bâtiments, permet aux robots d’acquérir une généralisation plus forte. Son robot Mobile ALOHA, capable de cuisiner des crevettes, illustre cette capacité, bien qu’il ne puisse encore fonctionner dans n’importe quelle cuisine. En neuroscience, Laura Gwilliams explore si les grands modèles linguistiques peuvent imiter le cerveau humain. En « lésionnant » artificiellement ces modèles, elle étudie la similitude avec les troubles du langage après AVC. Cette approche permet d’expérimenter des hypothèses rapidement, mais exige une compréhension fine des mécanismes internes. Enfin, Brian Trippe, professeur de statistiques, s’appuie sur les avancées de l’IA pour prédire les structures protéiques avec une précision atomique, une révolution qui a valu le prix Nobel de chimie en 2024. Il vise à concevoir des traitements médicaux plus sûrs, en modélisant non seulement une structure, mais une gamme de conformations possibles. Collectivement, ces travaux montrent que la véritable révolution de l’IA ne réside pas dans la vitesse, mais dans la profondeur, la responsabilité et la capacité à comprendre le monde – et l’humain – avec plus de justesse.