
現実のオープンワールドにおいて、データはしばしば長尾型のクラス分布に従うため、長尾認識(Long-Tailed Recognition, LTR)問題は長年にわたり広く研究されてきた。単純な訓練手法では、頻度の高いクラスに対して高い精度を達成するが、その結果、モデルは一般的なクラスに偏った性能を持つようになる。LTRを克服する鍵は、データ分布、学習損失、勾配といった多様な側面をバランスさせる点にあり、本研究では、このような既存のアプローチとは直交する方向性として「重みのバランス」に注目する。その動機は、実証的に観察された事実、すなわち、単純に訓練された分類器において、頻度の高いクラスの重みノルムが「人工的に」大きくなることにある。これは、頻度の高いクラスには豊富な学習データが存在する一方で、珍しいクラスにはそれらが不足しているためである。本研究では、重みのバランスを図るための3つの手法、L2正規化、重み減衰(weight decay)、MaxNorm制約を検討する。まず、L2正規化はクラスごとの重みを「完璧に」ノルム1に均衡させるが、この強い制約はクラスごとの分類器の最適化を妨げる可能性があることを指摘する。一方、重み減衰は大きな重みに対してより強いペナルティを課すため、小規模かつバランスの取れた重みを学習する。MaxNorm制約は、ノルムボール内での重みの成長を促進しつつ、すべての重みを半径で上限値で制限する。広範な実験により、これらの手法が重みのバランスを効果的に実現し、LTRの精度を著しく向上させることを示した。驚くべきことに、LTR分野ではあまり注目されてこなかった重み減衰が、既存手法を顕著に上回る性能を発揮した。したがって、本研究では二段階の訓練フレームワークを採用し、LTRに対するシンプルかつ効果的なアプローチを提案する。具体的には、(1) 重み減衰を調整しながら交差エントロピー損失で特徴を学習し、(2) クラスバランス損失を用いて重み減衰とMaxNormを調整しながら分類器を学習する。このアプローチは、5つの標準ベンチマークにおいて最先端の精度を達成し、今後の長尾認識研究の新たなベースラインとして機能することが期待される。