2ヶ月前

OCNet: オブジェクトコンテキストネットワークによるシーン解析

Yuhui Yuan; Lang Huang; Jianyuan Guo; Chao Zhang; Xilin Chen; Jingdong Wang
OCNet: オブジェクトコンテキストネットワークによるシーン解析
要約

本稿では、新しいコンテキスト集約スキームである\emph{オブジェクトコンテキスト}を用いてセマンティックセグメンテーションタスクに取り組みます。このスキームは、オブジェクト情報の役割を強化することに焦点を当てています。各ピクセルのカテゴリが属するオブジェクトから引き継がれるという事実に基づき、画像内の任意のピクセルに対してその同じカテゴリに属するピクセルの集合をオブジェクトコンテキストと定義します。全ピクセル間の関係を表現するために、バイナリ関係行列を使用します。ここで、値1は選択された2つのピクセルが同じカテゴリに属することを示し、0はそれ以外の場合です。我々は、バイナリ関係行列の代替として密集関係行列を使用することを提案します。密集関係行列は、オブジェクトピクセル間の関係スコアが他のピクセルよりも高くなる傾向があるため、オブジェクト情報の貢献度を強調することができます。ただし、密集関係行列の推定には入力サイズに関する二次的な計算コストとメモリ消費が必要となるため、効率的なインターレースされた疎自己注意スキームを提案します。このスキームは2つの疎関係行列の組み合わせにより、全ピクセル間の任意の2つの間で密集した関係をモデル化します。さらに豊富なコンテキスト情報を取得するために、我々のインターレースされた疎自己注意スキームと従来の多尺度コンテキストスキーム(ピラミッドプーリング~\citep{zhao2017pyramid}および空洞空間ピラミッドプーリング~\citep{chen2018deeplab})を組み合わせました。5つの挑戦的なベンチマーク(Cityscapes, ADE20K, LIP, PASCAL-Context, COCO-Stuff)での競争力のある性能を通じて、我々の方針の優位性を実証的に示しています。

OCNet: オブジェクトコンテキストネットワークによるシーン解析 | 最新論文 | HyperAI超神経