
クラス不均衡は、実世界のデータセットにおいて顕著な課題の一つであり、少数のクラス(マジョリティクラスと呼ばれる)が他のクラス(マイナリティクラスと呼ばれる)に比べて圧倒的に多くのデータサンプルを占める状況を指す。このようなデータセットを用いた深層ニューラルネットワークの学習では、通常、モデルの性能がマジョリティクラスに偏りがちとなる。従来の研究の多くは、データ再サンプリングやコストセンシティブ学習など、さまざまな手法を用いてマイナリティクラスに高い重みを割り当てる方法によってクラス不均衡を緩和しようとしている。しかし、本研究では、利用可能な訓練データの数が重み付け戦略を決定するための適切な指標とは限らないと考える。なぜなら、一部のマイナリティクラスは、訓練データ数が少なめであっても、十分に代表されている可能性があるからである。このようなクラスに過剰な重みを付与すると、モデル全体の性能が低下するリスクがある。そこで、我々は、モデルが各クラスに対して感じている「難易度」こそが、重み付け戦略を決定する上でより重要な指標であると主張する。この観点から、サンプルが属するクラスの難易度に応じて、動的に重みを分配する新しい損失関数「クラス別難易度バランス損失(Class-wise Difficulty-Balanced loss, 通称CDB損失)」を提案する。なお、モデルの学習進捗に伴い、各クラスに対する「難易度」の認識が変化するため、割り当てられる重みも動的に更新される点に留意すべきである。本研究では、画像データ(人工的に不均衡化されたMNIST、ロングテール型CIFARおよびImageNet-LT)および動画データ(EGTEA)を用いた広範な実験を行った。その結果、CDB損失は、データタイプ(画像または動画)にかかわらず、近年提案された他の損失関数と比較して、一貫して優れた性能を発揮することが示された。