8日前

ラベルノイズに対する圧縮正則化を用いたCo-teachingの強化

Yingyi Chen, Xi Shen, Shell Xu Hu, Johan A.K. Suykens
ラベルノイズに対する圧縮正則化を用いたCo-teachingの強化
要約

本稿では、ラベルノイズが存在する状況下での画像分類モデルの学習問題に着目する。我々は、高速な情報検索および適応的データ圧縮を目的として当初提案された単純な圧縮正則化手法「ネストドロップアウト(Nested Dropout)」を再検討する。その結果、ネストドロップアウトは当初の目的とは異なり、ラベルノイズに対して神経ネットワークの正則化を適切に行うことが可能であることが分かった。さらに、その手法の単純さから、Co-teachingと容易に組み合わせることで性能をさらに向上させることができる。本研究で提案する最終的なモデルは単純でありながらも効果的であり、ラベルノイズを含む2つの実世界データセットであるClothing1MおよびANIMAL-10Nにおいて、最先端の手法と同等、あるいはそれ以上の性能を達成した。Clothing1Mでは74.9%の精度を達成し、DivideMixの結果(74.7%)をわずかに上回った。また、ANIMAL-10Nでは84.1%の精度を実現したのに対し、公開されている最高の結果(PLCによる83.4%)を上回った。本研究で提示する単純なアプローチが、ラベルノイズを伴う学習における強力なベースラインとして活用されることを期待する。実装コードは以下のURLで公開されている:https://github.com/yingyichen-cyy/Nested-Co-teaching。

ラベルノイズに対する圧縮正則化を用いたCo-teachingの強化 | 最新論文 | HyperAI超神経