1ヶ月前

深層ニューラルネットワークをラベルノイズに強化する:損失補正アプローチ

Giorgio Patrini; Alessandro Rozza; Aditya Menon; Richard Nock; Lizhen Qu
深層ニューラルネットワークをラベルノイズに強化する:損失補正アプローチ
要約

我々は、クラス依存のラベルノイズを伴う深層ニューラルネットワーク(RNNを含む)の訓練に理論的に根ざしたアプローチを提示します。損失補正のための2つの手順を提案し、これらはアプリケーション領域やネットワークアーキテクチャに依存しないものです。各クラスが他のクラスに変質する確率が既知である場合、これらの手順は行列の逆行列計算と乗算に相当するもので、最大でもそれだけです。さらに、これらの確率を推定する方法についても示します。最近のノイズ推定技術を多クラス設定に適応させることで、エンドツーエンドのフレームワークを提供します。MNIST、IMDB、CIFAR-10、CIFAR-100および大規模な衣類画像データセットにおいて、さまざまなアーキテクチャ(全結合層、畳み込み層、プーリング層、ドロップアウト層、バッチ正規化層、ワード埋め込み層、LSTM層および残差層を使用)を用いた広範な実験により、我々の提案手法がノイズに対して堅牢であることを示しています。また偶然にも、ReLUが唯一の非線形関数である場合、損失曲面がクラス依存のラベルノイズに対して免疫であることを証明しています。