2ヶ月前

一度に二つ:IBN-Netを用いた学習および汎化能力の向上

Pan, Xingang ; Luo, Ping ; Shi, Jianping ; Tang, Xiaoou
一度に二つ:IBN-Netを用いた学習および汎化能力の向上
要約

畳み込みニューラルネットワーク(CNN)は、多くのコンピュータビジョンの問題で大きな成功を収めています。既存の研究では、特定のドメインにおける単一タスクの性能向上のためにCNNアーキテクチャが設計されており、汎用性がありませんでした。本稿では、IBN-Netという新しい畳み込みアーキテクチャを提案します。このアーキテクチャは、特定のドメイン(例:Cityscapes)でのモデル化能力を大幅に向上させるとともに、他のドメイン(例:GTA5)への汎化能力も向上させることができます。これはファインチューニングなしで実現されます。IBN-Netは、Instance Normalization (IN) と Batch Normalization (BN) をビルディングブロックとして慎重に統合しており、多くの先進的な深層ネットワークに組み込むことで性能を向上させることが可能です。本研究には3つの主要な貢献があります。INとBNの詳細な分析により、INが色やスタイル、仮想性/現実性などの外観変化に対して不変である特徴を学習することを明らかにしました。一方、BNはコンテンツに関連する情報を保持するために不可欠であることが確認されました。IBN-NetはDenseNet, ResNet, ResNeXt, SENetなどの多くの先進的な深層アーキテクチャに適用でき、計算コストを増加させずに一貫して性能を向上させます。訓練されたネットワークを新しいドメインに適用した場合(例:GTA5からCityscapesへ)、IBN-Netは目標ドメインからのデータを使用せずにドメイン適応手法と同等の改善を達成します。IBN-Netを使用することで、WAD 2018 Challenge Drivable Area トラックで1位となり、mIoUが86.18%という結果を得ました。