17 天前

用于医学图像分割的全卷积Transformer

Athanasios Tragakis, Chaitanya Kaul, Roderick Murray-Smith, Dirk Husmeier
用于医学图像分割的全卷积Transformer
摘要

我们提出了一种新型的Transformer模型,能够对不同模态的医学图像进行分割。由于医学图像分析具有细粒度特征,当前将Transformer应用于该领域仍处于初步发展阶段。UNet之所以取得巨大成功,关键在于其能够充分捕捉分割任务中的细粒度信息,而现有基于Transformer的模型尚不具备这一能力。为解决这一不足,我们提出了全卷积Transformer(Fully Convolutional Transformer, FCT),该模型继承了卷积神经网络(CNN)在学习有效图像表征方面的成熟能力,并结合了Transformer在捕捉输入长期依赖关系方面的优势。FCT是医学图像领域首个完全基于卷积的Transformer模型。该模型采用两阶段处理机制:首先从输入图像中学习长程语义依赖关系,随后在特征空间中捕获分层的全局属性。FCT结构紧凑、精度高且具有良好的鲁棒性。实验结果表明,在无需任何预训练的前提下,FCT在多个不同数据模态的医学图像分割数据集上均显著优于现有各类Transformer架构。在ACDC数据集上,FCT性能优于其直接竞争模型1.3%;在Synapse数据集上提升4.4%;在Spleen数据集上提升1.2%;在ISIC 2017数据集上提升1.1%(以Dice系数衡量),且参数量最多仅为对手的五分之一。相关代码、运行环境及模型将通过GitHub公开发布。