HyperAIHyperAI

Command Palette

Search for a command to run...

IA en santé : un plan d’action pour une adoption responsable et efficace

Une nouvelle étude publiée le 13 octobre 2025 dans le Journal of the American Medical Association (JAMA) propose un plan d’action pour une intégration plus sûre et plus efficace de l’intelligence artificielle (IA) dans les soins de santé. Coécrite par Michelle Mello, professeure de droit et de politique de santé à la Stanford Law School et à l’École de médecine de Stanford, cette analyse s’inscrit dans le cadre du sommet JAMA sur l’IA de 2024, réunissant plus de 60 experts issus de la médecine, du droit, de la politique publique et de l’industrie. L’objectif : anticiper les risques tout en maximisant les bénéfices de l’IA pour les patients. Malgré un déploiement accéléré de l’IA dans les hôpitaux — de systèmes d’alerte précoce pour la septicémie aux applications mobiles de suivi cardiaque ou psychologique, en passant par des outils d’automatisation administrative — les mécanismes de régulation et d’évaluation peinent à suivre. Selon Mello, membre de l’Académie nationale de médecine, « les systèmes actuels pour évaluer et encadrer l’IA ne sont pas à la hauteur de son adoption rapide ». Sans infrastructure adéquate, les promesses d’amélioration des diagnostics, de personnalisation des traitements ou d’accès aux soins pour les populations vulnérables risquent d’être compromises par une mise en œuvre inéquitable, des effets indésirables non détectés ou des pertes de ressources. Le rapport identifie quatre priorités clés pour une intégration responsable : 1. Une implication multistakeholder à chaque étape du cycle de vie des outils d’IA, incluant développeurs, cliniciens, régulateurs, systèmes de santé et patients, afin d’assurer une conception alignée sur les besoins réels. 2. Des outils d’évaluation robustes capables de mesurer l’efficacité dans des contextes cliniques réels, au-delà des performances techniques en laboratoire. 3. Une infrastructure nationale de données permettant l’apprentissage continu entre systèmes, inspirée du programme Sentinel de la FDA, pour surveiller en temps réel les effets des outils d’IA, qu’ils soient bénéfiques ou nuisibles. 4. Un cadre réglementaire renforcé avec une coordination accrue de la FDA et d’autres agences fédérales, accompagné de mécanismes de financement, de règles claires et d’incitations alignées pour encourager l’évaluation et la conformité. Actuellement, seules certaines applications cliniques sont soumises à la surveillance de la FDA, et même celles-là ne doivent pas toujours prouver une amélioration des résultats pour les patients. Les outils d’administration — comme les algorithmes de pré-autorisation ou de gestion des salles d’opération — échappent souvent à tout contrôle, tout comme des centaines de milliers d’applications grand public présentées comme des outils de bien-être à faible risque. « Les hôpitaux adoptent l’IA plus vite qu’ils ne peuvent l’évaluer, et la plupart n’ont ni les ressources ni les capacités pour mener des évaluations rigoureuses », souligne Mello. L’objectif n’est pas de freiner l’innovation, mais de garantir que ses bénéfices soient réels, mesurables et accessibles à tous. Les experts interrogés saluent ce rapport comme une étape cruciale vers une gouvernance proactive de l’IA en santé. Ils insistent sur la nécessité d’un partenariat entre secteurs publics et privés, et sur la mise en place de standards éthiques et d’évaluation indépendante pour prévenir les biais algorithmiques et assurer la transparence. Des entreprises comme Google Health, IBM Watson Health ou des startups spécialisées dans la médecine prédictive sont appelées à collaborer activement avec les régulateurs pour construire des systèmes d’IA responsables, durables et centrés sur le patient.

Liens associés

IA en santé : un plan d’action pour une adoption responsable et efficace | Articles tendance | HyperAI