研究揭示:特定学习策略能有效提升医院AI模型的准确性和公平性
一项新的研究发现,特定的学习策略可以显著提高医院中人工智能模型的有效性和安全性。该研究发表在《JAMA Network Open》上,由约克大学的研究团队完成,研究了数据迁移对AI模型在医疗领域的潜在影响。 研究人员使用了GEMINI,这是加拿大最大的医院数据共享网络,评估了数据变化和偏差如何影响临床诊断、人口统计特征、性别、年龄、医院类型、转院来源(如急性护理机构或养老院)以及入院时间等因素。研究涉及了多伦多大都会区七家大型医院中的143,049次患者就诊记录,包括实验室结果、输血、影像报告和管理特征。 研究的主要作者、约克大学健康政策与管理学院助理教授Elham Dolatabadi指出,随着AI在医院中的应用日益广泛,预测从患者死亡率到疾病诊断的各种情况,确保这些模型如预期般工作并避免患者受到伤害变得尤为重要。然而,由于数据会随时间发生变化,构建可靠和稳健的机器学习模型仍然是一项挑战。例如,不同患者亚群、人员配备、资源条件的变化,以及未预见的政策调整或行为改变,甚至是像新冠疫情这样的突发公共卫生事件,都可能导致数据迁移。 研究人员发现,模型训练阶段和实际应用之间存在显著的数据迁移现象,尤其是在社区医院和学术医院之间的转移。此外,某些类型的AI模型可能会产生偏见,导致某些患者群体遭受不公平或歧视性的后果。为了解决这些问题,研究团队采用了两种主要的学习策略:迁移学习和持续学习。 迁移学习允许模型将从一个领域学到的知识应用到另一个相关领域,从而减少因数据不匹配带来的负面影响。持续学习则通过实时更新数据来适应数据的变化,特别是在出现数据漂移时触发报警并及时调整模型。Dolatabadi表示,这种方法不仅能检测出数据迁移对模型性能的负面影响,还能提出有效的缓解策略,确保AI在临床环境中的安全和公平部署。 研究结果显示,针对特定医院类型的模型在采用迁移学习后表现优于通用型模型。持续学习策略在疫情期间防止了有害的数据迁移,提高了模型的长期性能。这表明,在实际临床环境中部署AI模型时,采用这些策略是一种切实可行的方法,能够有效弥补AI潜在优势与现实应用之间的鸿沟。 业内人士认为,这项研究为临床AI模型的安全和有效性部署提供了重要的指导,特别适用于大型医疗系统中的复杂应用场景。通过实施迁移学习和持续学习策略,医院可以在不断变化的数据环境中保持模型的可靠性和准确性,从而更好地服务于患者。约克大学在健康政策和管理领域的研究实力,加之Vector Institute的技术支持,使该研究能够取得突破性进展。
