Les experts préconisent une régulation centrée sur le patient pour éviter la discrimination dans l'utilisation de l'IA en santé
Les experts préviennent que les réglementations actuelles basées sur le risque pour l'intelligence artificielle (IA) dans le domaine de la santé ne suffisent pas à protéger les patients. Selon un nouvel article de réflexion publié dans le Journal of the Royal Society of Medicine, ces approches réglementaires pourraient entraîner une sur- ou une sous-optimisation des traitements, ainsi que des discriminations à l’égard de certaines catégories de patients. Les auteurs de l'étude ont constaté que, bien que les systèmes d'IA et d'apprentissage automatique puissent améliorer la précision clinique, ils suscitent toujours de sérieuses inquiétudes concernant leur inexactitude intrinsèque, leur opacité et leur potentiel de biais. Ces problèmes ne sont pas suffisamment abordés par les efforts réglementaires actuels, notamment ceux introduits par le Règlement sur l'IA de l'Union européenne, entré en vigueur en 2025. Le Règlement sur l'IA classe les dispositifs médicaux à base d'IA comme "à haut risque" et impose des contrôles rigoureux aux fournisseurs et aux utilisateurs de ces technologies. Cependant, les auteurs soutiennent que ce cadre réglementaire basé sur le risque néglige trois questions cruciales : les préférences individuelles des patients, les effets systémiques et à long terme de la mise en œuvre de l'IA, ainsi que le risque de désinformation des patients dans les processus de réglementation. "Les patients ont des valeurs différentes en matière de précision, de biais ou du rôle que joue l'IA dans leur prise en charge", a déclaré le principal auteur, le professeur Thomas Ploug, spécialiste éthique des données et de l'IA à l'Université d'Aalborg au Danemark. "La réglementation doit aller au-delà de la sécurité à niveau systémique et prendre en compte les droits et la participation individuelle des patients." Les auteurs plaident pour l'introduction de nouveaux droits des patients liés aux diagnostics et plans de traitement générés par l'IA. Ces droits devraient inclure : Le droit d'informer : les patients doivent avoir le droit d'être informés de l'utilisation de l'IA dans leur soin, des décisions qu'elle prend et de l’influence qu’elle exerce sur leur traitement. Le droit de décision : les patients doivent avoir la possibilité de refuser ou d’accepter les recommandations de l’IA. Le droit de recours : les patients doivent pouvoir contester les décisions prises par l’IA et obtenir une révision par un professionnel de santé humain. Le droit à la transparence : les patients doivent avoir accès à des informations claires sur le fonctionnement de l’IA et les données utilisées. Le droit à l’équité : les patients doivent être assurés que les algorithmes d’IA ne comportent pas de biais discriminatoires. Les auteurs mettent en garde contre le risque que ces droits soient ignorés dans l'évolution rapide de l'IA en santé, appelant à une mobilisation urgente de tous les acteurs du secteur de la santé, y compris les cliniciens, les régulateurs et les groupes de patients. "L'IA est en train de transformer les systèmes de santé, mais cette transformation ne doit pas se faire au détriment de l’autonomie et de la confiance des patients", a ajouté le professeur Ploug. "Il est grand temps de définir des droits qui protégeront et renforceront l’autonomie des patients dans un environnement de soins de santé piloté par l'IA." Cette approche centrée sur le patient est essentielle pour garantir que les bénéfices de l'IA en santé soient véritablement inclusifs et équitables, sans compromettre la qualité et l'accessibilité des soins pour toutes les populations. Les régulateurs et les développeurs d'IA doivent collaborer étroitement avec les patients pour identifier et intégrer leurs besoins et préoccupations, ce qui contribuera à une réglementation plus robuste et éthique.