17 天前
基于对抗性扩散模型的无监督医学图像翻译
Muzaffer Özbey, Onat Dalmaz, Salman UH Dar, Hasan A Bedel, Şaban Özturk, Alper Güngör, Tolga Çukur

摘要
通过源模态到目标模态的图像补全(imputation)可有效提升医学成像协议的多样性。目前广泛采用的一种目标图像合成方法是基于生成对抗网络(GAN)的一次性映射(one-shot mapping)。然而,这类隐式表征图像分布的GAN模型往往存在样本保真度有限的问题。为此,本文提出一种基于对抗性扩散建模的新方法——SynDiff,以在医学图像转换任务中实现更优性能。为直接建模图像分布的内在特征,SynDiff采用一种条件扩散过程,逐步将噪声与源图像映射至目标图像空间。在推理阶段,为实现快速且准确的图像采样,SynDiff在逆向扩散方向上引入对抗性投影,并采用较大的扩散步长。为支持无配对数据集的训练,本文设计了一种循环一致性架构,包含耦合的扩散与非扩散模块,实现两种模态间的双向转换。在多对比度MRI及MRI-CT图像转换任务中,对SynDiff与现有GAN模型及扩散模型进行了全面评估。实验结果表明,SynDiff在定量与定性两个层面均显著优于现有基准方法,展现出卓越的图像生成性能。