1ヶ月前
アンカー・ポイントはラベルノイズ学習において本当に不可欠なのか?
Xiaobo Xia; Tongliang Liu; Nannan Wang; Bo Han; Chen Gong; Gang Niu; Masashi Sugiyama

要約
ラベルノイズ学習において、クリーンなラベルがノイジーラベルに変化する確率を表す\textit{ノイズ遷移行列}は、\textit{統計的に一貫した分類器}を構築する上で中心的な役割を果たします。既存の理論では、特定のクラスにほぼ確実に属するデータポイントである\textit{アンカーポイント}を利用することで、遷移行列を学習できることが示されています。しかし、アンカーポイントがない場合、遷移行列の学習は不十分となり、現在の一貫した分類器の性能が大幅に低下します。本論文では、アンカーポイントを使用せずに、\textit{遷移修正}($T$-Revision)手法を提案し、遷移行列を効果的に学習し、より優れた分類器を構築することを目指します。具体的には、高\textit{ノイジークラス事後確率}を持つアンカーポイントに類似したデータポイントを利用して遷移行列を初期化します。その後、初期化された行列に対して\textit{緩和変数}を追加し、これを分類器とともにノイジーなデータを使用して学習および検証します。ベンチマークシミュレーションおよび実世界のラベルノイズデータセットに対する経験的結果は、正確なアンカーポイントを使用せずに提案手法が最先端のラベルノイズ学習手法よりも優れていることを示しています。