Les outils d'IA en médecine aggravent les inégalités : les femmes et les groupes marginalisés reçoivent un traitement moins adapté
Les outils médicaux alimentés par l’intelligence artificielle (IA) produisent des résultats plus défavorables pour les femmes et les groupes sous-représentés, selon une analyse récente publiée par le Financial Times. Cette situation s’explique en partie par l’historique des essais cliniques et des études scientifiques, qui ont longtemps privilégié les hommes blancs comme sujets. Ce biais fondamental dans les données d’entraînement se répercute directement sur les modèles d’IA, qui reproduisent et amplifient ces inégalités. Une étude menée par des chercheurs du Massachusetts Institute of Technology révèle que des grands modèles linguistiques comme GPT-4 d’OpenAI et Llama 3 de Meta sont plus susceptibles de recommander une prise en charge réduite pour les patientes femmes. Ces modèles ont tendance à conseiller plus fréquemment aux femmes de « gérer leur état à domicile », ce qui entraîne une moindre intervention médicale en milieu clinique. Ce phénomène n’est pas limité aux modèles généraux : même Palmyra-Med, un modèle spécialisé dans le domaine médical, a montré des biais similaires. Une analyse menée par l’École d’économie de Londres sur Gemma, un modèle de Google (non le fameux Gemini), a également révélé que les besoins des femmes étaient systématiquement minimisés par rapport à ceux des hommes. Les problèmes ne se limitent pas aux questions de prise en charge. Une étude antérieure avait déjà montré que les modèles d’IA offraient moins de compassion aux personnes de couleur souffrant de troubles mentaux que leurs homologues blanches. Un article publié l’an dernier dans The Lancet souligne que GPT-4 a tendance à stéréotyper certaines races, ethnies et sexes, en fondant ses diagnostics et recommandations davantage sur des caractéristiques démographiques que sur les symptômes réels. Les plans de traitement générés par le modèle étaient fortement corrélés à des attributs comme le sexe ou l’origine ethnique, conduisant à des prescriptions plus coûteuses pour certains groupes, tout en affectant la perception que les patients ont de leur propre soin. Ces biais, souvent subtils et inconscients, deviennent particulièrement préoccupants alors que des géants comme Google, Meta et OpenAI s’efforcent d’intégrer leurs outils dans les hôpitaux et les centres de santé. Ce marché prometteur comporte pourtant un risque sérieux : la propagation d’informations erronées ou discriminatoires. En février, le modèle médical de Google, Med-Gemini, avait fait la une en inventant un organe humain fictif — une erreur facilement détectable par un professionnel. Mais les biais sont plus insidieux : un médecin pourrait ne pas remarquer qu’un modèle d’IA renforce une croyance médicale ancienne sur un patient, simplement parce que cela correspond à un stéréotype. L’avenir de la médecine intelligente dépend donc non seulement de la performance technique des modèles, mais aussi de leur capacité à garantir une équité réelle. Sans une surveillance rigoureuse, des données diversifiées et une conception inclusive, l’IA risque de reproduire les injustices du passé, au détriment des plus vulnérables.