Command Palette
Search for a command to run...
Des Pressings Au Prix d'ingénierie De La Reine Elizabeth, Fei-Fei Li Défie Le Mythe Technologique De La Silicon Valley, En Se Concentrant Sur Les Risques De Déshumanisation De l'IA.

Au printemps 2025, la professeure Fei-Fei Li, titulaire d'une licence en physique de l'université de Princeton et d'un doctorat en neurosciences computationnelles du Caltech, a reçu le prix Queen Elizabeth pour l'ingénierie, souvent considéré comme le « prix Nobel de l'ingénierie ». Le jury a salué ses travaux fondamentaux en vision par ordinateur et en apprentissage profond.Ses recherches sont considérées comme ayant « permis aux machines de voir le monde d'une manière proche de la perception humaine pour la première fois ».
« L’ingénierie ne se résume pas à la puissance de calcul et aux algorithmes, mais englobe également la responsabilité et l’empathie », a souligné Fei-Fei Li dans son discours de remerciement. Elle a insisté sur le fait que les avancées technologiques ne sont pas synonymes de meilleure compréhension. Face à l’essor de l’IA, elle reste vigilante : si les algorithmes reconstruisent le langage, les images et les systèmes de connaissances, ils remodèlent aussi les structures de pouvoir social et la perception que l’être humain a de lui-même. Le plus grand risque de l’IA réside dans la « déshumanisation », écrivait-elle dans la préface de ses mémoires, *Les mondes que je vois*.« Si l’intelligence artificielle oublie la valeur de l’humanité, elle perdra sa raison d’être. »
Dans le récit industriel de la Silicon Valley, la voix dissidente de Fei-Fei Li est exceptionnellement rare. Plutôt que de mettre l'accent sur l'échelle et la vitesse, elle s'intéresse davantage à la structure sociale et aux fondements éthiques de l'intelligence.À mesure que les machines acquièrent une meilleure compréhension des êtres humains, ces derniers parviendront-ils encore à se comprendre véritablement eux-mêmes ?L'histoire de Li Feifei dépasse le simple cadre des avancées scientifiques ; elle s'attache avant tout au discours humaniste d'une minorité marginalisée. Comment réorienter l'intelligence artificielle vers une approche centrée sur l'humain ? Voilà la question à laquelle elle souhaite véritablement répondre, au-delà des prix, des honneurs et des distinctions.

En tant que « personne marginalisée », elle a choisi de se détacher des grands récits.
Li Feifei est née à Pékin en 1976. Son père était physicien et sa mère ingénieure. À l'âge de 12 ans, elle a immigré avec ses parents dans le New Jersey, aux États-Unis, ne parlant pratiquement pas anglais. Les débuts de leur vie après l'immigration ont été très difficiles. Ses parents subvenaient à leurs besoins en travaillant dans un pressing et un restaurant. Elle étudiait assidûment l'anglais tout en travaillant à temps partiel au restaurant et au pressing de ses parents pendant son temps libre afin de compléter les revenus de la famille. Dans l'interview,Li Feifei se souvient : « La vie était vraiment difficile pour les immigrants ou les familles d'immigrants. »Cette expérience est également devenue la base psychologique marginale de sa plus récente « conscience d’immigrée » : dans l’environnement occidental, en tant qu’« autre », Fei-Fei Li a été témoin de la prospérité du système technologique américain, mais a également subi l’inégalité de la structure sociale.
Le terme « autre » dans l’identité féminine désigne celles qui sont placées en marge du groupe dominant/sujet au sein des structures de pouvoir, des récits sociaux et des constructions culturelles, et qui sont observées, définies, marginalisées ou altérisées à travers l’identité de « femme ». Ce concept trouve son origine dans la notion philosophique occidentale d’altérité et est depuis largement utilisé dans les études de genre.
En 2000, Fei-Fei Li a entrepris un doctorat en neurosciences computationnelles au Caltech, axant ses recherches sur l'intersection entre la reconnaissance visuelle d'objets et l'intelligence artificielle (Reconnaissance visuelle d'objets et cerveau). Cette formation interdisciplinaire lui a permis de comprendre que la « vision » n'est pas seulement un problème de perception, mais aussi un problème de compréhension.Les machines peuvent-elles comprendre le monde grâce à l'expérience, au contexte et à la mémoire, tout comme les humains ?Cette idée a servi de base à sa proposition ultérieure du projet ImageNet.

En 2007, alors qu'elle enseignait à l'université de Princeton, Fei-Fei Li et son équipe de recherche ont lancé le projet ImageNet, qui a eu par la suite un impact considérable. Dans son article de 2009, « ImageNet : une base de données d'images hiérarchique à grande échelle », Li constatait qu'à l'époque, la plupart des algorithmes de vision par ordinateur reposaient fortement sur des caractéristiques extraites manuellement et sur de petits ensembles de données, ce qui rendait l'idée d'« apprentissage profond basé sur les données » assez controversée. Cependant, sa persévérance s'est avérée inébranlable. À mesure que le paradigme technologique de l'IA évoluait discrètement, l'approche basée sur les données à grande échelle, autrefois considérée comme un « pari risqué » dans le monde universitaire, est finalement devenue la norme.
Comme l'a souligné Venturebeat dans son rapport,Le « paradigme axé sur les données » promu par Fei-Fei Li a changé la trajectoire de développement de la vision par ordinateur et même de l'intelligence artificielle dans son ensemble.« Après le concours ImageNet de 2012, les médias se sont rapidement intéressés à la tendance de l'apprentissage profond. Dès 2013, la quasi-totalité de la recherche en vision par ordinateur s'était orientée vers les réseaux neuronaux. »

Ainsi, avec l'arrivée de la folie de l'IA, ce scientifique, qui avait lutté en marge de l'immigration, s'est finalement retrouvé propulsé au centre de l'ère.
Cependant, malgré ses recherches qui ont jeté les bases de l'ère de l'apprentissage profond, Fei-Fei Li ne s'est jamais pleinement intégrée au récit technologique dominé par la Silicon Valley : sa perspective unique, conférée par son statut marginal, lui a toujours permis de garder une distance sereine par rapport à l'engouement mondial pour l'IA.
Dans le discours dominant sur la Silicon Valley, l'IA est présentée comme un enjeu central de la compétition technologique, des jeux de pouvoir et des stratégies nationales. Cependant, Fei-Fei Li choisit de réexaminer ce système sous un angle humaniste et éthique. Elle a souligné à plusieurs reprises publiquement que…Le développement de l'IA est surcommercialisé et militarisé. Les ressources de recherche et l'imagination sociale se concentrent sur des « modèles plus vastes » et une « puissance de calcul accrue », tandis que les conséquences sociales de cette technologie sont ignorées.
En 2019, Fei-Fei Li est retournée à Stanford et a cofondé le Stanford Institute for Human-Centered Artificial Intelligence (HAI) avec Marc Tessier-Lavigne, John Etchemendy et d'autres. Cet institut réintègre l'éthique, le secteur public et les groupes vulnérables dans la conception technique de l'IA, et inclut explicitement un principe fondamental dans son énoncé de mission :L'IA doit servir les intérêts les plus larges de l'humanité.
Dans une interview publiée par HAI, Fei-Fei Li a déclaré franchement : « Je ne fais pas partie de l'élite technologique typique. Je suis une immigrée, une femme, une Asiatique et une universitaire. Ces identités m'ont donné une perspective et un point de vue uniques. »L'impact futur de l'intelligence artificielle est si profond que nous devons préserver notre autonomie.Nous devons choisir comment développer et utiliser cette technologie. Si nous renonçons à notre autonomie, nous serons en chute libre.

Fei-Fei Li met en garde contre le risque de « déshumanisation de l'IA », en opposition au mythe technologique de la Silicon Valley.
Contrairement au discours dominant dans la Silicon Valley,Li Feifei continue de promouvoir le concept d’« IA pour l’humanité ».Elle a souligné l'importance d'intégrer les valeurs sociales et éthiques aux réflexions sur le développement technologique. Elle a mis en garde contre les risques potentiels de « déshumanisation » liés au progrès technologique, insistant sur le fait que l'IA doit être centrée sur l'humain et que la technologie doit répondre aux besoins et aux valeurs humaines.
En 2018, face au projet Maven, un projet de reconnaissance d'images de drones militaires développé par Google en coopération avec le département américain de la Défense, Fei-Fei Li a clairement exprimé son opposition à la militarisation de l'IA dans un courriel : « L'IA doit être au service de l'humanité, et Google ne peut pas laisser croire au public que nous développons des armes. »

Dans une interview accordée à Issues, Fei-Fei Li s'est également exprimée sans détour sur les risques potentiels de l'IA : « L'impact de l'IA est une arme à double tranchant. Pour la société, cette technologie peut guérir des maladies, découvrir des médicaments, trouver de nouveaux matériaux et apporter des solutions au changement climatique. Parallèlement, elle peut aussi engendrer des risques, tels que la propagation de la désinformation et des bouleversements du marché du travail. »

En fait, pour limiter davantage les risques liés à l'IA,Li Feifei a souligné à plusieurs reprises en public la nécessité d'établir un mécanisme de surveillance de l'éthique de l'IA.Dans un entretien avec McKinsey & Company, Fei-Fei Li a affirmé avec sérénité qu'il était extrêmement urgent de mettre en place un mécanisme de régulation fondé sur un système juridique. « Rationnellement parlant, c'est essentiel pour l'humanité lorsqu'elle réalise de nouvelles inventions et découvertes. Ce mécanisme passera notamment par l'éducation. Il est nécessaire que le public, les décideurs politiques et les responsables politiques comprennent le potentiel, les limites et les réalités de cette technologie, puis d'y intégrer la réglementation. Le cadre réglementaire garantira son application et sa mise en œuvre par le biais de lois. »

Parallèlement, afin de promouvoir le rôle moteur de l'éducation dans la réglementation éthique de l'IA, lors de l'événement Semafor Tech à San Francisco en mai 2025,Li Feifei a également appelé l'administration Trump à réduire son intervention dans les finances universitaires.Dans le cadre d'une récente campagne de répression contre l'immigration, l'administration Trump a réduit de plusieurs milliards de dollars le financement de la recherche universitaire et révoqué les visas de milliers d'étudiants. En réaction, Fei-Fei Li a déclaré que, face à l'intensification de la concurrence technologique mondiale, les sanctions imposées aux institutions de recherche comportent des risques potentiels pour le développement éthique de l'IA.
« Le secteur public, et notamment l'enseignement supérieur, a toujours été un élément clé de l'écosystème d'innovation américain et un moteur essentiel de notre croissance économique. Presque toutes les connaissances fondamentales que nous possédons sur l'intelligence artificielle proviennent de la recherche universitaire, qu'il s'agisse d'algorithmes, d'approches fondées sur les données ou des premières recherches sur les microprocesseurs », a déclaré Fei-Fei Li. « Le gouvernement doit continuer à allouer des ressources suffisantes à l'enseignement supérieur et au secteur public pour mener ce type de recherche innovante, libre et guidée par la curiosité, indispensable au développement sain de notre écosystème et à la formation de la prochaine génération. »
Par ailleurs, Li Feifei a déclaré sans ambages que les quotas de visas imposés par les États-Unis aux citoyens de certains pays ont toujours constitué un problème pour de nombreuses personnes talentueuses souhaitant conserver leur emploi.« Honnêtement, j'espère que mes étudiants pourront obtenir des visas de travail et trouver des voies d'immigration. »

En résumé, malgré l'optimisme technologique fervent de la Silicon Valley, Fei-Fei Li a toujours adopté une attitude réfléchie, craignant que l'IA ne « déshumanise ». « Beaucoup de gens, notamment dans la Silicon Valley, parlent d'accroître la productivité, mais une productivité accrue ne signifie pas que la prospérité soit partagée par tous. »Il faut reconnaître que l'IA n'est qu'un outil ; cet outil n'a aucune valeur intrinsèque. La valeur d'un outil découle en fin de compte de la valeur humaine.
Elle a insisté sur la nécessité d'une approche de l'intelligence artificielle centrée sur l'humain, tant au niveau individuel que communautaire et sociétal. « Nous avons besoin d'un cadre centré sur l'humain, avec des responsabilités partagées entre les individus, les communautés et la société, afin de garantir l'engagement collectif selon lequel l'IA doit améliorer le bien-être humain. »
S’appuyant sur une expérience de terrain, interpréter les opportunités et les contraintes des niches écologiques complexes.
Confrontée à de multiples identités marginalisées en tant que femme, immigrée, Asiatique et universitaire, Fei-Fei Li reconnaît que ces expériences ont profondément influencé ses recherches et son engagement. Dans un entretien avec HAI, elle explique que ce sont précisément ces expériences de marginalisation qui lui ont permis d'acquérir une perspective sur les nouvelles technologies radicalement différente de celle des enfants qui grandissent dans des environnements plus stables et sont exposés aux ordinateurs dès l'âge de cinq ans, ce qui lui permet de déceler en permanence les biais structurels du système technologique.
« La science explore l'inconnu, tout comme l'immigration. Ce sont deux voyages semés d'incertitudes, et chacun doit trouver son propre chemin. C'est d'ailleurs précisément pour cela que je souhaite travailler sur l'intelligence artificielle centrée sur l'humain. »Mon expérience de l'immigration, mon entreprise de nettoyage à sec, la santé de mes parents – tout ce que j'ai vécu est profondément ancré dans la nature humaine. Cela m'a donné une perspective et un point de vue uniques.Li Feifei a parlé franchement.
Cependant, les enseignements tirés de son identité marginalisée s'accompagnent aussi d'incompréhensions, de controverses et de pressions. Figure parmi les femmes les plus influentes du secteur technologique mondial, Fei-Fei Li est souvent présentée par les médias comme la « marraine de l'IA », mais elle a exprimé à plusieurs reprises son malaise face à cette symbolique et sa lassitude d'être qualifiée de « modèle féminin ».
« Je n’aime pas vraiment qu’on m’appelle la marraine de l’IA. »Dans son rapport pour Axios, Fei-Fei Li a noté que les attentes de l'industrie technologique envers les femmes sont excessivement symboliques, ce qui conduit souvent les femmes scientifiques à être accablées par une « imagination fondée sur les rôles » : les femmes sont fréquemment invitées à raconter des « histoires inspirantes », sont tenues de représenter la diversité, les percées et l'espoir, mais ne sont pas considérées comme des scientifiques, des chercheuses ou des décideuses politiques ordinaires, et ne sont pas censées participer à égalité aux discussions stratégiques et technologiques fondamentales.
« Je tiens à souligner la contribution des femmes, trop souvent négligée dans l'histoire des sciences. J'espère qu'il y aura plus d'une figure emblématique dans le domaine de l'IA », a déclaré Fei-Fei Li. Elle a ajouté que le véritable défi est de faire de la mixité la norme dans ce secteur. Afin de concrétiser progressivement cet idéal, elle a lancé le programme éducatif AI4All à l'Université de Stanford, destiné à encourager les femmes et les minorités à intégrer le domaine de l'IA.

aussi,L'identité ethnique de Li Feifei semble avoir attiré davantage l'attention sur les questions raciales entourant ses conclusions de recherche.
Bien qu'ImageNet soit considéré comme un pilier de la recherche en vision par ordinateur, sa sous-arborescence « personnes » est critiquée depuis longtemps par le monde universitaire et les médias. Dès 2019, The Art Newspaper faisait état de préoccupations concernant les tendances racistes potentielles d'ImageNet, arguant que la base de données attribuait fréquemment aux personnes blanches des étiquettes largement inexactes. Par exemple, l'artiste Trevor Paglen et la chercheuse Kate Crawford ont publié des commentaires négatifs sur l'ensemble de données en ligne après l'avoir utilisé. « Un rédacteur de The Verge a été catégorisé comme fumeur de pipe et hôtesse de l'air, et d'autres utilisateurs des réseaux sociaux ont signalé avoir été décrits avec des termes racistes et autres termes extrêmement offensants. »
Bien qu'un grand nombre d'avis négatifs aient incité l'équipe d'ImageNet à envisager le nettoyage et la reconstruction de l'ensemble de données, entraînant la suppression d'environ 600 000 photos, l'hypothèse selon laquelle ImageNet constitue une « pierre angulaire neutre » est toujours remise en question.

Dans le même temps, les opinions minoritaires de Fei-Fei Li l'ont obligée à se positionner dans une zone grise entre le courant dominant de la Silicon Valley et le grand public, et son rôle dans l'industrie de l'IA a donc suscité une controverse continue.
« Elle est une figure clé du développement fulgurant de l'IA aujourd'hui, mais tous les informaticiens ne s'accordent pas sur la pertinence de son idée d'une gigantesque base de données visuelles », a écrit Matt Obrien, collaborateur de l'AP, dans une chronique.Concernant les questions de « centrage sur l'humain » et d'« éthique de l'IA » sur lesquelles se sont concentrées une minorité de scientifiques, comme Fei-Fei Li, certains chercheurs critiquent depuis longtemps la théorie du risque extrême qui les sous-tend, la qualifiant de propagande religieuse.Par exemple, le directeur technique de Palantir, Shyam Sankar, a déclaré qu'il n'avait jamais cru au récit de « l'apocalypse de l'IA » et que la possibilité que l'IA entraîne des conséquences catastrophiques était extrêmement faible ; il pense qu'il s'agit d'une rumeur répandue par les « transhumanistes ».
« La théorie de la menace n'est qu'un stratagème pour lever des fonds », a rétorqué Sankar. « Les entreprises à la pointe du développement peuvent s'en servir pour attirer les investissements. »

Cependant, certains commentateurs estiment que la contribution de Fei-Fei Li à la tendance consistant à combiner technologie et capital est en décalage avec sa vision de recherche : malgré son insistance de longue date sur une approche « centrée sur l’humain » et son opposition à la commercialisation excessive de l’IA, en tant qu’ancienne scientifique en chef de Google Cloud AI, elle a inévitablement favorisé l’industrialisation de l’IA.
donc,Figure de proue de « l'IA centrée sur l'humain » et acteur majeur du développement des infrastructures d'IA commerciales,Li Feifei se trouve à un carrefour quelque peu délicat.

En bref, au sein du mythe de l'IA, la position de Fei-Fei Li reflète l'interaction complexe entre les scientifiques, les algorithmes et les valeurs humaines, et a longtemps servi de récit tendu et édifiant.La technologie peut-elle exister indépendamment de toute considération sociale, éthique et humaniste ? Et comment trouver un équilibre entre commercialisation rapide et responsabilité sociale à long terme ?La remise en question par Fei-Fei Li de « l'IA centrée sur l'humain » demeure un défi non résolu, au-delà du discours de vénération technologique propre à la Silicon Valley.
Liens de référence :
1.https://www.businessinsider.com/palantir-shyam-sankar-skeptical-ai-jobs-2025-10
2.https://apnews.com/article/ai-pioneer-feifei-li-stanford-computer-vision-imagenet-702717c10defd89feabf01e6c1566a4b
3.https://www.wired.com/story/fei-fei-li-artificial-intelligence-humanity/
4.https://www.theartnewspaper.com/2019/09/23/leading-online-database-to-remove-600000-images-after-art-project-reveals-its-racist-bias