17日前

事故シーンの堅牢なセマンティックセグメンテーションのためのマルチソースミックスサンプリングとメタラーニング

Xinyu Luo, Jiaming Zhang, Kailun Yang, Alina Roitberg, Kunyu Peng, Rainer Stiefelhagen
事故シーンの堅牢なセマンティックセグメンテーションのためのマルチソースミックスサンプリングとメタラーニング
要約

自律走行車は、人間が外界を理解するように都市環境のセグメンテーションを活用し、それに応じた対応を行う。従来のベンチマークにおいて、通常のシーンにおける意味的セグメンテーションの精度は著しく向上している。しかし、実際の事故の多くは、物体の変形、車両の転覆、予期せぬ交通行動といった異常なシーンを含んでおり、わずかなシーンセグメンテーションの誤りですら人命に対する深刻な脅威をもたらす可能性がある。したがって、事故シーンにおけるモデルのロバスト性は、知能交通システムの安全性を確保する上で極めて重要な要素である。本論文では、極端な事故シーンに対するセグメンテーションTransformerの一般化性能を向上させるため、マルチソースメタラーニングによる自己教師型ドメイン適応(Multi-source Meta-learning Unsupervised Domain Adaptation: MMUDA)フレームワークを提案する。MMUDAでは、複数のソースドメイン(通常のシーン)の画像を、ターゲットデータの外観(異常なシーン)と組み合わせるマルチドメイン混合サンプリング(Multi-Domain Mixed Sampling)を用いて拡張する。モデルの学習においては、複数のソース設定下でメタラーニング戦略を統合・検討し、セグメンテーション結果のロバスト性を強化する。さらに、長距離の文脈依存性を効率的に集約するため、大窓口アテンション空間ピラミッドプーリングとストリッププーリングを組み合わせたハイブリッドASPPデコーダ構造を、セグメンテーションバックボーン(SegFormer)に導入する。本手法はDADA-segベンチマークにおいて46.97%のmIoUスコアを達成し、従来の最先端モデルを7.50%以上上回った。コードはhttps://github.com/xinyu-laura/MMUDAにて公開予定である。

事故シーンの堅牢なセマンティックセグメンテーションのためのマルチソースミックスサンプリングとメタラーニング | 最新論文 | HyperAI超神経