Command Palette
Search for a command to run...
{B. V. K. Vijaya Kumar Yang Zou Zhiding Yu Jinsong Wang}

要約
近年の深層ネットワークは、多様な意味的セグメンテーションタスクにおいて、最先端の性能を達成している。しかし、ラベル付きの訓練データ(ソースデータ)と未観測のテストデータ(ターゲットデータ)の間に大きな差異が存在する現実世界の「ワイルドタスク」において、これらのモデルはしばしば課題に直面する。特に、このような差異は「ドメインギャップ」として知られており、表現力のさらなる強化によっては容易に補正できないほど性能を著しく低下させる要因となる。教師なしドメイン適応(Unsupervised Domain Adaptation: UDA)は、ターゲットドメインのラベルを用いずにこの問題を克服することを目指す。本論文では、反復的な自己学習(Self-Training: ST)手順に基づく新たなUDAフレームワークを提案する。このアプローチでは、問題を潜在変数損失の最小化として定式化し、ターゲットデータ上で疑似ラベルを逐次生成し、そのラベルでモデルを再学習するという交互プロセスにより解決可能となる。さらに、STの枠組みを拡張し、大規模クラスによる疑似ラベル生成における漸進的な支配を回避するため、新たなクラスバランス型自己学習(Class-Balanced Self-Training: CBST)フレームワークを提案するとともに、空間的Priorを導入して生成されたラベルの精度を向上させた。広範な実験結果により、提案手法が複数の主要なUDA設定において、最先端の意味的セグメンテーション性能を達成することが確認された。
ベンチマーク
| ベンチマーク | 方法論 | 指標 |
|---|---|---|
| image-to-image-translation-on-gtav-to | CBST | mIoU: 47.0 |
| semi-supervised-semantic-segmentation-on-23 | CBST (Range View) | mIoU (1% Labels): 35.7 mIoU (10% Labels): 50.7 mIoU (20% Labels): 52.7 mIoU (50% Labels): 54.6 |
| semi-supervised-semantic-segmentation-on-24 | CBST (Range View) | mIoU (1% Labels): 39.9 mIoU (10% Labels): 53.4 mIoU (20% Labels): 56.1 mIoU (50% Labels): 56.9 |
| semi-supervised-semantic-segmentation-on-25 | CBST (Range View) | mIoU (1% Labels): 40.9 mIoU (10% Labels): 60.5 mIoU (20% Labels): 64.3 mIoU (50% Labels): 69.3 |