Stratégies d'apprentissage proactive et continu pour améliorer la fiabilité des modèles IA dans les hôpitaux
Stratégies d'apprentissage ciblées pour améliorer l'efficacité des modèles d'IA dans les hôpitaux Une étude publiée récemment dans le JAMA Network Open par une équipe de l'Université York a mis en lumière l'importance des stratégies d'apprentissage proactives, continues et de transfert pour améliorer l'efficacité et la fiabilité des modèles d'intelligence artificielle (IA) utilisés dans les hôpitaux. Ces modèles étant de plus en plus employés pour prédire divers aspects comme la mortalité en milieu hospitalier, la durée de séjour, le sepsis ou le diagnostic de maladies, il est crucial qu'ils soient calibrés de manière à ne pas causer de dommages aux patients. Contexte et Objectif de l'Étude L'étude a été menée dans sept grands hôpitaux de la région métropolitaine de Toronto, utilisant GEMINI, le réseau de partage de données hospitalières le plus important du Canada. Elle s'est appuyée sur 143 049 interactions entre patients et hôpitaux, comprenant des résultats de laboratoire, des transfusions, des rapports d'imagerie et des informations administratives. L'objectif principal était de créer et évaluer un système d'alerte précoce pour prédire le risque de mortalité en milieu hospitalier et ainsi améliorer la prise en charge des patients. Causes des Décalages de Données L'un des principaux défis identifiés par les chercheurs est le décalage entre les données utilisées pour former les modèles d'IA et les données réelles rencontrées dans les hôpitaux. Ces décalages peuvent survenir en raison de changements dans la démographie des patients, le type d'hôpital, la source de transfert des patients (p. ex., depuis des institutions de soins aigus ou des maisons de retraite), ou encore l'heure d'admission. D'autres facteurs tels que les différences de population de patients, le personnel, les ressources, les changements de politique, les pratiques médicales variées entre les hôpitaux, ou une pandémie imprévue comme celle du COVID-19, peuvent également contribuer à ces décalages. Résultats de l'Étude Les chercheurs ont constaté des décalages significatifs entre les données de formation et celles appliquées en pratique, notamment des variations démographiques, du type d'hôpital, de la source des admissions et des examens de laboratoire critiques. Par exemple, les modèles d'IA formés sur les données de visites de patients dans des hôpitaux communautaires ont montré des performances moins optimales lorsqu'ils étaient déployés dans des hôpitaux universitaires, mais non l'inverse. Cela souligne la nécessité d'adapter les modèles en fonction du contexte spécifique de chaque type d'hospitalisation. Stratégies pour Mitiger les Décalages de Données Pour atténuer ces décalages potentiellement nocifs, les chercheurs ont adopté deux stratégies principales : 1. Apprentissage de Transfert : Cette approche permet au modèle d'IA de conserver la connaissance acquise dans un domaine et de l'appliquer à un autre domaine similaire. En spécifiant le type d'hôpital au moment de l'entraînement, les modèles ont obtenu des performances supérieures par rapport à ceux utilisant toutes les données d'hôpitaux disponibles. 2. Apprentissage Continu : Ce système met à jour le modèle d'IA en continu à partir d'un flux constant de données, activé par des alarmes de dérive. Cela a aidé à prévenir les décalages de données dus à la pandémie de COVID-19 et a amélioré les performances du modèle au fil du temps. Impacts et Biases Les modèles d'IA peuvent également développer des biais en fonction des données sur lesquelles ils ont été formés, conduisant à des résultats injustes ou discriminatoires pour certains groupes de patients. Par exemple, les modèles formés principalement sur des patients masculins pourraient présenter des performances inférieures pour les patientes femmes, ce qui pourrait entraîner des diagnostics inexactes ou des prédictions erronées. Les auteurs de l'étude ont donc proposé des méthodes pour détecter ces décalages de données, évaluer leur impact négatif sur la performance des modèles d'IA, et proposer des stratégies pour les atténuer. Ils ont démontré comment ces méthodes peuvent permettre une détection proactive des décalages de données, sans avoir besoin de connaître les labels spécifiques (c'est-à-dire les résultats à prédire), et comment un processus d'apprentissage continu peut ajuster le modèle de manière dynamique. Évaluation et Perspective Selon Elham Dolatabadi, professeure adjointe à l'École de politiques et gestion de la santé de l'Université York et membre de l'Institut Vector, cette étude offre un chemin pratique pour passer du potentiel prometteur de l'IA en santé à son déploiement et sa durabilité dans les environnements cliniques réels. Les stratégies et les flux de travail proposés permettent de garantir la sécurité et l'efficacité des modèles d'IA au fur et à mesure que les conditions de santé évoluent. Vallijah Subasri, chercheure en IA à l'University Health Network, ajoute que ces résultats indiquent qu'une surveillance proactive intégrée, combinant apprentissage de transfert et apprentissage continu, peut détecter et atténuer les décalages de données nuisibles chez les patients internés en médecine générale à Toronto, assurant ainsi un déploiement clinique de l'IA robuste et équitable. Profil de l'Équipe et de l'Institution L'Université York, située à Toronto, est reconnue pour ses recherches en sciences de la santé et en politiques de la santé. Elham Dolatabadi, l'auteure principale, est membre du Vector Institute, un institut de premier plan en IA. L'University Health Network, où Valijah Subasri a effectué sa recherche, est l'un des plus grands réseaux hospitaliers au Canada, spécialisés dans les soins de santé de pointe et la recherche innovante. Cette étude représente une avancée significative vers l'implémentation des modèles d'IA cliniques, en fournissant des solutions concrètes pour surmonter les défis liés aux décalages de données. Les implications pour l'industrie de la santé sont considérables, car elle ouvre la voie à un usage plus sûr et plus efficace de l'IA, réduisant ainsi les risques pour les patients et augmentant la précision et l'équité des diagnostics et des traitements.
