L’IA en santé ne soigne pas tout le monde : le danger d’un système qui exclut les patients « imparfaits »
Avant même d’ouvrir les yeux, votre appareil portable a déjà analysé vos constantes vitales. En vous levant, il a détecté une légère anomalie durant votre sommeil et ajusté votre plan de santé. À peine votre café pris, l’IA a déjà prédit vos risques pour la semaine à venir. Ce scénario, de plus en plus répandu, est celui d’un futur de la santé guidé par l’intelligence artificielle. Pourtant, selon une étude menée par des chercheurs du Georgia Institute of Technology, ce futur idéalisé exclut des millions de patients. Il repose sur une vision très précise du « patient parfait » : riche, en bonne santé, technophile, disponible en permanence. Ce modèle, expliquent les auteurs, risque de rendre invisibles ceux qui ne correspondent pas à cette norme — notamment les personnes souffrant de maladies chroniques, de handicaps ou de précarité sociale. L’étude, présentée lors de la conférence CHI 2025, a analysé 21 outils de santé alimentés par l’IA, allant des applications de fertilité aux dispositifs portables, en passant par les plateformes de diagnostic et les chatbots. À travers une approche sociologique, les chercheurs ont identifié quatre récits dominants dans ces systèmes : une surveillance permanente (« le soin qui ne dort jamais »), l’efficacité comme forme d’empathie (où l’IA remplace la relation humaine), la prévention comme perfection (où la maladie est évitée grâce à des capteurs et des comportements optimisés), et le corps optimisé (où la santé devient un objectif de performance). « Ces systèmes imaginent une médecine fluide, automatique, toujours active, mais ils effacent la complexité réelle de la maladie, de l’handicap et des contraintes sociales », souligne Catherine Wieczorek, doctorante en informatique centrée sur l’humain et auteure principale de l’étude. L’IA n’est plus seulement un outil diagnostique : elle devient un acteur décisionnel, parfois personnifiée — comme Chloe, un outil d’aide aux décisions en fécondation in vitro. En lui attribuant un nom, une personnalité, on lui confère une forme d’autorité, ce qui brouille les responsabilités. « Quand l’IA est présentée comme un partenaire, on redéfinit qui a le droit d’être soigné », ajoute Shaowen Bardzell, co-auteur et directeur du département d’informatique interactive. Le danger, selon les chercheurs, réside dans l’imposition d’un modèle de santé qui ignore les réalités vécues : un patient qui gère plusieurs maladies, qui travaille, qui s’occupe d’enfants ou de proches, qui vit dans la précarité. Les algorithmes, fondés sur des données standardisées, ne perçoivent pas la nuance. Ils ne comprennent pas les choix contraints, les sacrifices, les priorités complexes. « Ces systèmes ne sont pas neutres : ils incarnent des idéaux sociaux, définissent qui mérite d’être soigné », insiste Wieczorek. Les auteurs appellent donc à une conception inclusive de l’IA en santé. Il ne s’agit pas d’arrêter l’innovation, mais de la rediriger. « Le progrès technologique ne doit pas se mesurer seulement à ce qu’on peut faire, mais à ce qu’on devrait faire — et pour qui », affirme Bardzell. L’avenir de la santé numérique ne doit pas être une utopie réservée aux plus favorisés, mais un système qui inclut tous les corps, toutes les vies.
