
要約
深層ニューラルネットワークは、トレーニングデータセットに著しいクラス不均衡が存在する場合、性能が著しく低下する可能性がある。近年、表現学習と分類器学習を分離する二段階手法が提案され、性能の向上が図られている。しかし、依然として重要な問題として、確率のキャリブレーション(校正)の不備が残っている。この問題に対処するため、本研究では、このような状況下でのキャリブレーションと性能の両方を改善するための二つの手法を提案する。クラスの予測確率分布が各クラスのサンプル数と強く関連しているという事実に着目し、クラスごとの過信度の差異に対応するための「ラベル認識型スムージング」を提案する。これにより、分類器学習の質が向上する。また、二段階間でサンプリング方式の違いに起因するデータセットバイアスを解消するため、分離フレームワーク内に「シフトされたバッチ正規化(shifted batch normalization)」を導入する。本研究で提案する手法は、CIFAR-10-LT、CIFAR-100-LT、ImageNet-LT、Places-LT、iNaturalist 2018 といった複数の代表的な長尾認識ベンチマークデータセットにおいて、新たな記録を樹立した。コードは、https://github.com/Jia-Research-Lab/MiSLAS にて公開される予定である。