2ヶ月前
RTFormer: Transformerを用いたリアルタイムセマンティックセグメンテーションの効率的な設計
Jian Wang; Chenhui Gou; Qiman Wu; Haocheng Feng; Junyu Han; Errui Ding; Jingdong Wang

要約
最近、トランスフォーマーを基盤とするネットワークはセマンティックセグメンテーションにおいて印象的な結果を示しています。しかし、リアルタイムのセマンティックセグメンテーションでは、計算に時間がかかるトランスフォーマーのメカニズムのため、依然として純粋なCNNベースのアプローチが主流となっています。本研究では、リアルタイムのセマンティックセグメンテーション向けに効率的な二重解像度トランスフォーマーであるRTFormerを提案します。このモデルは、パフォーマンスと効率性のバランスがCNNベースのモデルよりも優れています。GPUのようなデバイスでの高速推論を実現するために、RTFormerは線形複雑さを持つGPUフレンドリーなアテンション機構を採用し、マルチヘッドメカニズムを廃止しています。さらに、低解像度ブランチから学習された高レベルの知識を広げることで、高解像度ブランチにおける全体的なコンテキスト情報を収集する際にはクロスリゾリューションアテンションの方が効率的であることがわかりました。主要ベンチマークでの広範な実験により、提案したRTFormerの有効性が証明され、Cityscapes, CamVid, COCOStuffにおいて最先端の性能を達成し、ADE20Kでも有望な結果を示しました。コードはPaddleSeg(https://github.com/PaddlePaddle/PaddleSeg)で公開されています。