17日前

超高解像度セグメンテーションと超豊富なコンテキスト:新たなベンチマーク

Deyi Ji, Feng Zhao, Hongtao Lu, Mingyuan Tao, Jieping Ye
超高解像度セグメンテーションと超豊富なコンテキスト:新たなベンチマーク
要約

超高解像度(UHR)セグメンテーション手法に対する関心の高まりと急速な発展に伴い、多様なシーンを網羅し、細粒度かつ高密度のアノテーションを備えた大規模なベンチマークデータセットの開発が急務となっている。このような背景から、Ultra-High Resolution(超高解像度)かつ Ultra-Rich Context(極めて豊かな文脈情報)を意味するURURデータセットを提案する。名前の通り、URURは解像度が十分に高い画像(5,120×5,120のサイズで3,008枚)を多数含み、63都市からなる多様な複雑なシーンをカバーしており、100万件のインスタンス(8カテゴリ)を有する豊富な文脈情報を備え、約800億ピクセルの手動アノテーションによる細粒度のラベルを提供している。この点において、DeepGlobe、Inria Aerial、UDDなど既存のすべてのUHRデータセットを大きく上回っている。さらに、特に極めて豊かな文脈情報を有する画像に対する超高解像度セグメンテーションに特化した、より効率的かつ効果的なフレームワークWSDNetも提案する。具体的には、複数レベルの離散ウェーブレット変換(DWT)を自然に統合することで計算負荷を軽減しつつ、空間的詳細をよりよく保持し、またウェーブレットスムーズ損失(WSL)を導入して、滑らかな制約のもとで元の構造的文脈およびテクスチャを再構成する。複数のUHRデータセットにおける実験結果から、本手法が最先端の性能を達成することが示された。データセットは、https://github.com/jankyee/URUR にて公開されている。