HyperAIHyperAI

Command Palette

Search for a command to run...

Un nouvel outil IA détecte et corrige les biais dans les données médicales pour des algorithmes plus justes et précis

Une équipe de chercheurs de l’Icahn School of Medicine at Mount Sinai a développé un nouvel outil, baptisé AEquity, pour détecter et atténuer les biais présents dans les jeux de données utilisés pour entraîner des algorithmes d’intelligence artificielle en santé. Cette innovation vise à améliorer l’exactitude et l’équité des systèmes d’IA, qui peuvent sinon reproduire ou amplifier des inégalités dans les soins médicaux. Les résultats de cette étude ont été publiés dans le Journal of Medical Internet Research sous le titre « Detecting, Characterizing, and Mitigating Implicit and Explicit Racial Biases in Health Care Datasets With Subgroup Learnability: Algorithm Development and Validation Study ». AEquity permet d’identifier à la fois les biais explicites et implicites, notamment ceux liés à la race, au sexe ou à d’autres caractéristiques démographiques, dans divers types de données de santé : images médicales (comme les radiographies thoraciques), dossiers patients et données de grandes enquêtes publiques, telles que le National Health and Nutrition Examination Survey. Le système a été testé avec plusieurs modèles d’apprentissage automatique, allant des approches simples aux architectures avancées comme celles des grands modèles linguistiques. Les chercheurs soulignent que les algorithmes d’IA en santé sont aussi fiables que les données qui les alimentent. Or, certaines populations sont sous-représentées dans les jeux de données, ou leurs maladies se manifestent différemment, ce qui peut entraîner des diagnostics erronés ou des prédictions inexactes. Ces biais, si on ne les corrige pas, peuvent créer un cercle vicieux de soins inéquitable. AEquity permet de repérer ces déséquilibres dès la phase de préparation des données, avant l’entraînement des modèles. Le Dr Faris Gulamali, auteur principal de l’étude, explique que l’objectif était de fournir un outil pratique pour les développeurs, les établissements de santé et les régulateurs : « Nous voulons que ces outils fonctionnent bien pour tous, pas seulement pour les groupes les mieux représentés dans les données. » L’outil est flexible : il s’adapte à différents types de modèles, de petits à grands jeux de données, et évalue non seulement les entrées (comme les images ou les résultats biologiques), mais aussi les sorties (diagnostics prédits, scores de risque). Selon le Dr Girish N. Nadkarni, auteur principal correspondant et chef du département d’IA et santé humaine à Mount Sinai, AEquity représente une avancée essentielle, mais pas une solution complète. « Les progrès techniques doivent s’accompagner de changements plus profonds dans la manière dont les données sont collectées, interprétées et utilisées. La qualité fondamentale des données est primordiale. » Le Dr David L. Reich, responsable clinique du système de santé Mount Sinai, ajoute que cette recherche marque une évolution fondamentale dans la conception de l’IA en santé : non seulement comme outil décisionnel, mais comme moteur d’amélioration de la santé pour toutes les communautés. En corrigeant les biais à la source, AEquity contribue à renforcer la confiance des patients dans les technologies d’IA et à construire un système de santé apprenant, capable de s’ajuster continuellement pour mieux servir tous les individus.

Liens associés