要約
大規模な画像データセットには、避けがたいノイズラベルが頻繁に含まれており、これにより深層ニューラルネットワークにおいて過学習が生じ、性能が低下する。従来のノイズラベルからの学習手法の多くは、1段階のフレームワークを採用しており、学習データの分割と半教師付き学習(SSL)が最適化の過程で混在している。その結果、これらの手法の有効性は、分離されたクリーンデータセットの精度、ノイズに関する事前知識、およびSSLのロバスト性に大きく依存する。本論文では、対照学習(contrastive loss)を用いたノイズラベルに対するプログレッシブサンプル選択フレームワーク、PSSCL(Progressive Sample Selection with Contrastive Loss)を提案する。このフレームワークは2段階で動作し、ロバストな損失関数と対照学習を用いてモデルのロバスト性を強化する。第1段階では、長期的な信頼度検出戦略により小さなクリーンセットを特定することに注力し、第2段階ではこのクリーンセットを拡張することで性能を向上させる。PSSCLは、最先端手法と比較して、さまざまなベンチマークにおいて顕著な性能向上を示した。コードは https://github.com/LanXiaoPang613/PSSCL で公開されている。