
要約
現実のデータセットは、少数のクラスに多数のサンプルが集中する一方で、多くのクラスがわずかなサンプルしか持たないという偏り(クラス不均衡)を示すことが一般的である。このため、単純なERM(Empirical Risk Minimization)学習プロセスでは、多数派クラスにバイアスが生じやすく、少数派クラスへの一般化が困難となる。この問題に対処するため、損失関数を修正して少数派クラスの学習に重点を置く、シンプルかつ有効なアプローチが提案されている。具体的には、損失の重み付けを再調整する、またはクラス依存の項を用いてロジット(logits)を調整する手法が用いられる。しかし、こうした損失関数の一般化解析は、依然として粗い粒度で断片的であり、いくつかの実証的結果を十分に説明できていない。このギャップを埋めるために、本研究では、修正された損失関数が異なるクラスに対してどのように処理を行うかを捉えるための新しい技術である「データ依存性収縮(data-dependent contraction)」を提案する。この技術を基盤とし、不均衡学習に対する細粒度の一般化限界を確立した。これにより、重み付け法とロジット調整法の背後にあるメカニズムを統一的に解明することが可能となる。さらに、理論的知見に基づいた原理的な学習アルゴリズムも開発した。最後に、ベンチマークデータセットにおける実験結果は、理論的結果の妥当性を検証するとともに、提案手法の有効性を示している。