目标。自动医学图像分割对于从背景组织中精确分离目标组织区域至关重要,有助于实现精准诊断与临床操作。尽管公开可用的临床数据集大量涌现,推动了基于深度学习的医学图像分割方法的发展,但能够在多种成像模态间实现通用性、高精度、鲁棒且可靠的分割方法仍尚未实现。方法。本文提出一种新型的高分辨率并行生成对抗网络(pGAN)驱动的通用深度学习方法,用于实现来自多种成像模态的医学图像自动分割。该方法通过引入多项创新组件,显著提升了性能与泛化能力,包括:部分混合迁移学习(partial hybrid transfer learning)、基于离散小波变换(DWT)的多层多分辨率特征融合机制(应用于编码器),以及基于多分辨率U-Net结构的生成对抗网络解码器中的双模式注意力门(dual mode attention gate)。此外,结合多目标对抗训练损失函数,特别是为促进pGAN中协同学习而设计的独特倒数损失(reciprocal loss),进一步增强了分割结果的鲁棒性与准确性。主要结果。在九个具有代表性的公开医学图像分割数据集(包括PhysioNet ICH、BUSI、CVC-ClinicDB、MoNuSeg、GLAS、ISIC-2018、DRIVE、Montgomery和PROMISE12)上进行的实验评估表明,所提出方法在各项指标上均显著优于现有先进方法。在上述数据集上,该方法分别取得了79.53%、88.68%、82.50%、93.25%、90.40%、94.19%、81.65%、98.48%和90.79%的平均F1分数,全面超越当前最先进水平。此外,所提方法展现出优异的多领域分割能力,在不同数据域间均保持一致且可靠的性能表现。对模型识别微小结构细节能力的评估表明,所提出的高分辨率通用医学图像分割网络(Hi-gMISnet)在目标区域极小时仍能实现更高精度的分割。意义。所提出的方法在医学图像分割任务中展现出强大的鲁棒性与可靠性,具备在临床环境中实际应用的潜力,有望辅助医生进行更准确的疾病诊断与治疗决策。