HyperAIHyperAI

Command Palette

Search for a command to run...

SegNeXt: 重新思考卷积注意力机制设计以用于语义分割

Meng-Hao Guo Cheng-Ze Lu Qibin Hou Zheng-Ning Liu Ming-Ming Cheng Shi-Min Hu

摘要

我们介绍了SegNeXt,一种用于语义分割的简单卷积网络架构。近年来,基于 Transformer 的模型由于自注意力机制在编码空间信息方面的高效性而主导了语义分割领域。在本文中,我们展示了卷积注意力是一种比 Transformer 中的自注意力机制更高效且有效的方法来编码上下文信息。通过重新审视成功分割模型所具有的特性,我们发现了几个关键组件,这些组件导致了分割模型性能的提升。这促使我们设计了一种新颖的卷积注意力网络,该网络使用成本较低的卷积操作。无需复杂的附加功能,我们的SegNeXt在流行的基准测试中显著提升了先前最先进方法的性能,包括ADE20K、Cityscapes、COCO-Stuff、Pascal VOC、Pascal Context和iSAID。特别值得一提的是,SegNeXt在参数量仅为EfficientNet-L2 w/ NAS-FPN的1/10的情况下,在Pascal VOC 2012测试排行榜上实现了90.6%的mIoU(平均交并比)。在ADE20K数据集上,与计算量相同或更少的最先进方法相比,SegNeXt平均实现了约2.0%的mIoU提升。代码可在https://github.com/uyzhang/JSeg (Jittor) 和 https://github.com/Visual-Attention-Network/SegNeXt (Pytorch) 获取。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供