Command Palette
Search for a command to run...
{ Ming-Ming Cheng Jufeng Yang Yang Cao Deng-Ping Fan Jiang-Jiang Liu Jia-Xing Zhao}

要約
完全畳み込みニューラルネットワーク(FCN)は、顕著対象検出タスクにおいてその優位性を示している。しかし、現存する多数のFCNベースの手法は依然として粗い対象境界の問題に直面している。本論文では、この課題を解決するために、顕著エッジ情報と顕著対象情報の相補性に着目する。それに基づき、これら2種類の相補的情報を単一のネットワーク内で同時にモデル化するためのエッジガイドネットワーク(EGNet)を提案する。第1段階では、段階的な融合手法を用いて顕著対象特徴を抽出する。第2段階では、局所的エッジ情報とグローバルな位置情報の統合により、顕著エッジ特徴を獲得する。最終段階として、これらの相補的特徴を十分に活用するため、複数の解像度において同一の顕著エッジ特徴と顕著対象特徴を結合する。顕著エッジ特徴に含まれる豊富なエッジ情報および位置情報の恩恵により、統合された特徴は、特に顕著対象の境界をより正確に位置付けるのに寄与する。実験結果は、事前処理および後処理を一切行わずに、6つの広く用いられているデータセットにおいて、最先端の手法と比較しても優れた性能を発揮することを示している。ソースコードは http://mmcheng.net/egnet/ にて公開されている。
コードリポジトリ
ベンチマーク
| ベンチマーク | 方法論 | 指標 |
|---|---|---|
| camouflaged-object-segmentation-on-camo | EGNet | MAE: 0.104 S-Measure: 0.732 Weighted F-Measure: 0.583 |
| camouflaged-object-segmentation-on-cod | EGNet | MAE: 0.056 S-Measure: 0.737 Weighted F-Measure: 0.509 |
| camouflaged-object-segmentation-on-pcod-1200 | EGNet | S-Measure: 0.861 |
| co-salient-object-detection-on-coca | EGNet | Mean F-measure: 0.391 S-measure: 0.603 max F-measure: 0.404 mean E-measure: 0.622 |
| co-salient-object-detection-on-cosal2015 | EGNet | MAE: 0.099 S-measure: 0.818 max E-measure: 0.843 max F-measure: 0.786 |
| co-salient-object-detection-on-cosod3k | EGNet | MAE: 0.119 S-measure: 0.7619 max E-measure: 0.793 max F-measure: 0.702 |