多相互作用特徴学習と画像融合・セグメンテーションのための常時マルチモーダルベンチマーク

多モーダル画像融合とセグメンテーションは、自動運転やロボット操作において重要な役割を果たしています。初期の取り組みでは、融合またはセグメンテーションのいずれか1つのタスクの性能向上に焦点が当てられており、両方の最適な結果を得ることが難しかったです。この問題を克服するため、本論文では、画像融合とセグメンテーション用のマルチインタラクティブ特徴学習アーキテクチャ(Multi-\textbf{i}nteractive \textbf{F}eature learning architecture for image fusion and \textbf{Seg}mentation, 以下 SegMiF)を提案し、両タスク間の相関性を活用して性能向上を図ります。SegMiFはカスケード構造で、融合サブネットワークと一般的に使用されるセグメンテーションサブネットワークから構成されています。これらの2つのコンポーネント間の中間特徴量を巧妙に橋渡すことで、セグメンテーションタスクから得られた知識が効果的に融合タスクを支援します。また、恩恵を受けた融合ネットワークは、セグメンテーションネットワークがより優れたパフォーマンスを発揮できるようにサポートします。さらに、階層的な相互注意ブロックが設けられ、両タスク間での重要な情報の細かいマッピングが確保され、モーダリティ/意味特徴が完全に相互作用することが可能となります。加えて、動的な重み係数が導入され、各タスクに対応する重みを自動調整することができます。これにより、相互作用する特徴量の対応関係のバランスを取りつつ、手間のかかる調整作業の制約を超えることができます。さらに、スマートなマルチウェーブ双眼カメラシステムを構築し、15種類のピクセルレベルで注釈されたカテゴリーを持つ全天候型多モーダルベンチマークデータセットを集積しました。いくつかの公開データセットと当社のベンチマークにおける広範な実験により、提案手法は視覚的に魅力的な融合画像を出力するとともに、現実世界のシーンにおいて最新手法よりも平均7.66%高いセグメンテーションmIoU(mean Intersection over Union)を達成することが示されました。ソースコードおよびベンチマークは \url{https://github.com/JinyuanLiu-CV/SegMiF} で入手可能です。