17 天前
基于自监督预训练的Swin Transformer在三维医学图像分析中的应用
Yucheng Tang, Dong Yang, Wenqi Li, Holger Roth, Bennett Landman, Daguang Xu, Vishwesh Nath, Ali Hatamizadeh

摘要
视觉Transformer(Vision Transformers, ViT)在自监督学习中展现出优异性能,能够有效学习全局与局部表征,并可迁移至下游应用任务。受此启发,我们提出一种面向医学图像分析的新型自监督学习框架,设计了专用于该领域的代理任务。具体而言,本文提出:(i)一种基于3D Transformer的新型模型——Swin UNETR(Swin UNEt TRansformers),其采用分层编码器结构,用于自监督预训练;(ii)针对人体解剖结构内在规律设计的定制化代理任务。我们在5,050张来自不同人体器官的公开可用计算机断层扫描(CT)图像上成功实现了该模型的预训练。通过在“颅骨以外”(Beyond the Cranial Vault, BTCV)分割挑战赛(涵盖13个腹部器官)以及医学分割十项全能(Medical Segmentation Decathlon, MSD)数据集的分割任务上对预训练模型进行微调,验证了本方法的有效性。目前,该模型在MSD与BTCV两个数据集的公开测试排行榜上均位列第一,处于当前最先进水平。代码地址:https://monai.io/research/swin-unetr