HyperAIHyperAI

Command Palette

Search for a command to run...

用于医学图像分割的多尺度分层视觉Transformer与级联注意力解码

Md Mostafijur Rahman Radu Marculescu

摘要

Transformer 在医学图像分割任务中已展现出卓越的性能。然而,由于其底层采用单尺度自注意力(Self-Attention, SA)机制,Transformer 在泛化能力方面可能存在局限性。为此,本文提出一种多尺度层次化视觉Transformer(Multi-scale hiERarchical vIsion Transformer, MERIT)主干网络,通过在多尺度上计算自注意力机制,显著提升了模型的泛化能力。此外,我们引入了一种基于注意力的解码器结构——级联注意力解码(Cascaded Attention Decoding, CASCADE),用于对MERIT生成的多阶段特征进行进一步优化与细化。最后,我们提出一种高效的多阶段特征混合损失聚合方法——MUTATION,通过隐式集成(implicit ensembling)的方式实现更优的模型训练。在两个广泛使用的医学图像分割基准数据集(Synapse多器官数据集、ACDC心脏分割数据集)上的实验结果表明,MERIT在性能上优于当前主流方法。所提出的MERIT架构与MUTATION损失聚合策略可广泛应用于下游的医学图像分割及语义分割任务。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供