摘要
基于深度学习的医学图像配准方法在性能与速度方面已取得显著提升。然而,当前大多数方法在处理输入图像间存在大形变时仍面临挑战,通常需在计算成本与模型感受野大小之间进行权衡,以增强模型对长程空间关系的建模能力,从而提升配准效果。为在较低计算成本下实现对大形变图像的高效配准,本文提出一种轻量化配准模型——LL-Net,该模型具备建模大感受野和长程空间关系的能力。LL-Net的核心组件包括矩形分解大核注意力(Rectangular Decomposition Large Kernel Attention, RD-LKA)层与空间与通道融合注意力(Spatial and Channel Fusion Attention, SC-Fusion)层。其中,RD-LKA层采用各向异性的深度可分离大核卷积,在参数量极低的前提下有效捕捉大感受野,并建模长程空间依赖关系;SC-Fusion层则增强了模型的特征融合能力,强化关键位置的特征表示。实验结果表明,LL-Net在多个公开数据集上均达到当前最优性能:在IXI数据集上,Dice评分为76.7%,HD95为2.983 mm;在OASIS数据集上,Dice评分为87.8%,HD95为1.042 mm。大量实验证实了LL-Net在建模大感受野与长程空间关系方面的有效性。LL-Net的代码已开源,可通过 https://github.com/BoyOfChu/LL_Net 获取。