17日前

視覚変換器の高周波成分の再検討による性能向上

Jiawang Bai, Li Yuan, Shu-Tao Xia, Shuicheng Yan, Zhifeng Li, Wei Liu
視覚変換器の高周波成分の再検討による性能向上
要約

変換器(Transformer)モデルは、さまざまな視覚タスクにおいて有望な効果を示している。しかし、畳み込みニューラルネットワーク(CNN)モデルの学習と比較すると、視覚変換器(ViT)モデルの学習はより困難であり、大規模な学習データセットに依存する傾向がある。この観察を説明するために、我々は「ViTモデルはCNNモデルと比べて、画像の高周波成分を捉える能力が劣っている」という仮説を立て、周波数解析によってその妥当性を検証した。この発見を踏まえ、既存のViTモデル改善手法を新たな周波数的視点から再検討した結果、一部の手法(例:RandAugment)の成功は、高周波成分のより効果的な活用に起因していることが明らかになった。さらに、ViTモデルのこの不足した能力を補うために、敵対的学習を用いて画像の高周波成分を直接拡張する手法「HAT」を提案した。実験の結果、HATはさまざまなViTモデルの性能を一貫して向上させることを示した(例:ViT-Bで+1.2%、Swin-Bで+0.5%)、特にImageNet-1Kデータのみを用いた高度なモデルVOLO-D5について87.3%の精度を達成した。また、分布外データにおける優位性も維持され、下流タスクへの転移性能にも寄与することが確認された。コードは以下のURLから公開されている:https://github.com/jiawangbai/HAT。