17日前
中心性と一貫性:インスタンス依存ノイズラベル学習のための二段階クリーンサンプル同定
Ganlong Zhao, Guanbin Li, Yipeng Qin, Feng Liu, Yizhou Yu

要約
ノイズのあるラベルで訓練された深層モデルは過学習しやすく、一般化性能に課題を抱える。既存の大多数の手法は、ラベルノイズがクラス条件付き(class-conditional)であるという理想的な仮定に基づいている。すなわち、同一クラスのインスタンスは同一のノイズモデルに従い、特徴量とは独立していると仮定する。しかし実際のシーンでは、ノイズパターンはより細かいインスタンス依存型(instance-dependent)であることが多く、特にクラス間の不均衡が存在する場合には大きな課題となる。本論文では、上記の課題に対処するため、二段階のクリーンサンプル同定手法を提案する。第一段階として、クラスごとの予測中心に近いサンプルを初期段階で識別するため、クラスレベルの特徴クラスタリング手順を採用する。特に、予測エントロピーに基づいて希少クラスを統合することで、クラス不均衡問題に対処する。第二段階では、真のクラス境界に近い残りのクリーンサンプル(通常はインスタンス依存型ノイズを含むサンプルと混在している)に対して、二つの分類器ヘッドの出力の一貫性(consistency)を活用した新たな分類手法を提案する。一貫性が高いほど、そのサンプルがクリーンである確率が高くなるという仕組みである。複数の困難なベンチマークにおける広範な実験により、本手法が最先端手法を上回る優れた性能を発揮することが示された。