
摘要
受经典生成对抗网络(GAN)的启发,我们提出了一种新的端到端对抗神经网络,称为SegAN,用于医学图像分割任务。由于图像分割需要密集的像素级标签,经典GAN的判别器单标量真/假输出可能无法为网络提供稳定且充分的梯度反馈。因此,我们使用全卷积神经网络作为分割器来生成分割标签图,并提出了一种具有多尺度$L_1$损失函数的新颖对抗批评网络,以迫使批评网络和分割器学习捕捉像素之间长程和短程空间关系的全局和局部特征。在我们的SegAN框架中,分割器和批评网络以交替的方式在一个最小最大游戏中进行训练:批评网络接收一对图像(原始图像预测标签图,原始图像真实标签图)作为输入,并通过最大化多尺度损失函数进行训练;而分割器仅通过批评网络传递的梯度进行训练,目标是最小化多尺度损失函数。我们展示了这种SegAN框架在分割任务中更为有效且稳定,并且其性能优于最先进的U-net分割方法。我们使用来自MICCAI BRATS脑肿瘤分割挑战的数据集测试了我们的SegAN方法。广泛的实验结果证明了所提出的具有多尺度损失的SegAN的有效性:在BRATS 2013数据集中,SegAN在全肿瘤和肿瘤核心分割方面的表现与最先进方法相当,而在Gd增强肿瘤核心分割方面取得了更高的精度和敏感性;在BRATS 2015数据集中,SegAN在Dice系数和精度方面均优于最先进方法。