构建更安全高效的AI医疗未来:关键技术与路径展望
2025年10月13日,发表于《美国医学会杂志》(JAMA)的一份新报告提出,为实现人工智能在医疗领域的安全与高效应用,必须建立系统性框架。报告题为《人工智能、医疗与未来:今天与明天》,由斯坦福大学法学院与医学院教授米歇尔·梅洛(Michelle Mello)牵头撰写。该报告源于2024年JAMA举办的“人工智能医疗峰会”,汇聚了逾60位医疗、法律、政策与产业领域的领导者,旨在推动跨领域对话,应对AI在临床实践中带来的机遇与风险。 梅洛指出,尽管AI在医疗领域的应用速度惊人,但监管与评估体系却未能同步跟进。她强调,当前亟需采取具体措施,确保AI的整合更加透明、有效且公平。报告认为,AI在减轻行政负担、提升诊断准确性、实现个性化治疗以及拓展弱势群体医疗服务方面潜力巨大,但若缺乏健全的基础设施、评估机制与激励政策,其价值可能因部署不均、意外伤害和资源浪费而被削弱。 报告提出四大关键路径:一是贯穿AI全生命周期的多方协作机制,涵盖开发者、临床医生、监管机构、医疗机构与患者,确保设计、部署与监控协同一致;二是建立真实世界临床环境中的评估工具与方法,超越实验室测试,实现对不同人群与医疗场景的快速效果验证;三是构建国家级医疗数据基础设施,类似FDA的“哨兵计划”,通过分布式数据网络实时监测AI工具的安全性与有效性;四是强化监管框架与激励机制,扩大FDA等机构的统筹监管职责,推动建立清晰规则、资金支持与利益协同机制,确保开发者与医疗机构积极参与评估与合规。 目前,许多AI工具已嵌入临床实践,如医院的败血症预警系统、患者心律或心理健康追踪的移动应用,以及自动排程、医保审批和AI病历记录等后台系统。然而,多数工具未受FDA监管,即使获得许可,也常无需证明实际改善患者健康的结果。尤其是面向消费者的健康类App,通常以“低风险健康工具”为名规避审查,而影响患者可及性的商业类算法更常游离于监管之外。 “医院采用AI的速度远超其评估能力,而多数机构缺乏内部资源进行严谨评估。”梅洛表示,当前监管多聚焦流程安全与透明度,而非工具是否真正提升健康结果。报告强调,目标并非抑制创新,而是确保其带来的效益真实、可衡量,并公平惠及所有人群。
