
要約
ランダムなマスキング入力を用いた事前学習は、自己教師学習における新しいトレンドとして浮上している。しかし、教師あり学習では、訓練の不安定性が原因でマスキング増強(augmentation)の導入が困難な状況に直面している。本論文では、マスキング増強を効果的に導入する新たな手法として「マスク付きサブブランチ(Masked Sub-branch, MaskSub)」を提案する。MaskSubはメインブランチとサブブランチから構成され、サブブランチはメインブランチの一部として位置づけられる。メインブランチは従来の訓練手法に従い学習される一方、サブブランチは訓練中に強力なマスキング増強が施される。このアプローチにより、自己蒸留(self-distillation)に類似した緩やかな損失関数を用いて、マスキング増強による悪影響を軽減する。分析の結果、MaskSubは標準的な訓練と比較して訓練損失の収束が速く、訓練プロセスの安定化を示している。さらに、DeiT-IIIの訓練、MAEの微調整、CLIPの微調整、BERTの訓練、および階層的アーキテクチャ(ResNetおよびSwin Transformer)を含む多様な訓練シナリオとモデルにおいて、MaskSubの有効性を検証した。その結果、すべてのケースにおいて一貫して顕著な性能向上が得られた。MaskSubは、さまざまな訓練手法において追加の正則化を実現する実用的かつ効果的な解決策を提供する。コードは以下のURLで公開されている:https://github.com/naver-ai/augsub