
要約
車線検出のための深層モデルの学習は、車線アノテーションに内在する非常に微妙で疎な教師信号の存在により困難を極めます。より豊かなコンテキストから学習しないと、これらのモデルはしばしば厳しい状況(例えば、深刻な遮蔽、曖昧な車線、悪条件の照明)で失敗します。本論文では、新たな知識蒸留手法である自己注意蒸留(Self Attention Distillation: SAD)を提案します。この手法は、モデルが自身から学習し、追加の教師データやラベルなしで大幅な性能向上を達成することを可能にします。具体的には、適切なレベルまで訓練されたモデルから抽出される注意マップが豊かなコンテキスト情報をエンコードしていることを観察しました。この貴重なコンテキスト情報は、ネットワーク内部でのトップダウンおよび層間の注意蒸留を通じてさらなる表現学習のための「無料」教師として利用できます。SADは任意の前向き畳み込みニューラルネットワーク(CNN)に簡単に組み込むことができ、推論時間を増加させません。我々はSADを軽量モデルであるENet, ResNet-18, ResNet-34を使用してTuSimple, CULane, BDD100Kという3つの代表的な車線検出ベンチマークで検証しました。最も軽量なモデルであるENet-SADは既存のアルゴリズムと同等かそれ以上の性能を示しました。特に注目に値するのは、ENet-SADが最先端のSCNNと比較してパラメータ数が20倍少なく、実行速度も10倍速いにもかかわらず、すべてのベンチマークで優れた性能を達成しています。当該コードはhttps://github.com/cardwing/Codes-for-Lane-Detection で公開されています。