9日前

一般化された長尾分類のための不変特徴学習

Kaihua Tang, Mingyuan Tao, Jiaxin Qi, Zhenguang Liu, Hanwang Zhang
一般化された長尾分類のための不変特徴学習
要約

従来の長尾分類(LT)手法は、ヘッドクラス(頻度の高いクラス)がテールクラス(頻度の低いクラス)よりも多くのサンプルを持つというクラスごとの不均衡にのみ注目しているが、属性ごとの不均衡には着目していない。実際、クラス全体がバランスしている場合でも、各クラス内のサンプルが属性のばらつきによって長尾状態に陥る可能性がある。この後者の不均衡は、根本的に前者よりも普遍的かつ困難である。なぜなら、属性は多くのデータセットにおいて明示的ではなく、さらに組み合わせ的に複雑であるため、そのバランスを取ることは計算的に現実的ではないからである。したがって、本研究では、これらの二種類の不均衡を統合的に扱う新しい研究課題として「一般化長尾分類(Generalized Long-Tailed classification, GLT)」を提唱する。ここで「一般化」とは、GLT手法が従来のLT問題を自然に解けるべきであるが、逆は成り立たないことを意味する。驚くべきことに、我々が提案する二つのベンチマーク、ImageNet-GLT および MSCOCO-GLT において、大多数のクラスごとのLT手法が性能を著しく低下することが確認された。これは、これらの手法がクラス分布の調整に過度に注力し、属性不変特徴(attribute-invariant features)の学習を軽視しているためだと考える。これを解決するために、GLTのための最初の強力なベースラインとして、不変特徴学習(Invariant Feature Learning, IFL)手法を提案する。IFLは、不完全な予測からクラス内分布が異なる環境を発見し、それらの環境間で不変な特徴を学習する。有望な結果として、IFLは特徴バックボーンとしての性能を向上させ、すべてのLTアプローチ(ワンステージ/ツーステージの再バランス、増強、アンサンブル)を改善した。コードおよびベンチマークデータはGitHubにて公開されている:https://github.com/KaihuaTang/Generalized-Long-Tailed-Benchmarks.pytorch