林浩添团队验证大语言模型助力医生突破医学AI研究技术壁垒
近日,中山大学中山眼科中心林浩添教授团队在医学人工智能领域取得重要进展,首次通过随机对照试验系统验证了大语言模型(LLMs)作为临床医生开展医学AI研究的“智能引擎”潜力。相关成果发表于国际权威期刊《Cell Reports Medicine》。 随着人工智能技术在医学领域的广泛应用,临床医生在参与AI研究时普遍面临技术门槛高、缺乏编程与算法知识等现实障碍。为突破这一瓶颈,林浩添团队创新性地构建了一种以大语言模型为核心辅助工具的研究新范式,旨在降低医学AI研究的准入门槛,赋能非技术背景的临床医生独立开展高质量科研工作。 研究采用严格的随机对照试验设计,将参与的医生分为两组:一组在无AI经验的前提下,仅依靠大语言模型辅助完成医学AI研究任务;另一组则采用传统方式。结果显示,使用LLMs的医生在研究方案设计的可行性、技术实现效率及整体完成时间上均显著优于对照组。尤其在数据预处理、模型选择与实验设计等关键环节,LLMs展现出强大的辅助能力,有效弥补了医生在技术细节上的不足。 更值得关注的是,研究观察到明显的“技能迁移”效应——随着使用LLMs的深入,医生对AI基本原理的理解逐步加深,自主设计研究方案的能力显著提升。这表明,LLMs不仅是工具,更可能成为医学科研人员学习和掌握AI技术的桥梁。 然而,研究也揭示了潜在风险。部分医生在过度依赖模型输出时,出现对生成内容缺乏批判性评估的现象,存在“依赖风险”——即盲目采纳模型建议而忽视医学逻辑或数据合理性。这一发现提醒,LLMs的使用必须建立在科学规范与审慎判断的基础之上。 针对上述挑战,研究团队基于试验中积累的实践经验,总结提出“CPGI”提示词构建指南,即“Context(背景)-Purpose(目标)-Guidance(指导)-Iteration(迭代)”四步结构化框架。该指南通过系统化提示设计,帮助医生更精准地引导模型输出,提升交互效率与结果可靠性,为临床医生安全、高效使用大语言模型提供了可操作的实践路径。 此项研究不仅验证了大语言模型在医学AI研究中的实际价值,更推动了人机协作科研范式的转型。未来,随着AI工具的持续进化,如何在保障科学严谨性的前提下,充分发挥LLMs的辅助潜力,将成为医学科研创新的重要课题。林浩添团队的探索,为构建“医生+AI”的协同研究新生态提供了坚实的科学依据与实践范本。
