17日前

トランスファーラーニングにおける視覚表現の学習:テクスチャの抑制による

Shlok Mishra, Anshul Shah, Ankan Bansal, Janit Anjaria, Jonghyun Choi, Abhinav Shrivastava, Abhishek Sharma, David Jacobs
トランスファーラーニングにおける視覚表現の学習:テクスチャの抑制による
要約

最近の研究では、CNNの教師あり学習によって得られる特徴が、高次元の情報を编码するよりもテクスチャに過剰に依存していることが示されている。特に自己教師あり学習においては、テクスチャという低次元の手がかりが学習の「短絡」を引き起こし、ネットワークがより高次の表現を学習するのを妨げる可能性がある。こうした問題に対処するために、本研究ではテクスチャを抑制した画像を用いた訓練の補強に、アノイソトロピック拡散(anisotropic diffusion)に基づく古典的手法を活用することを提案する。この単純な手法は、重要なエッジ情報を保持しつつ、同時にテクスチャを効果的に抑制することができる。実証的に、本手法は教師ありおよび自己教師あり学習の両方において、MoCoV2やJigsawを含む8種類の多様なデータセットでオブジェクト検出および画像分類において最先端の性能を達成することを示した。特に転移学習タスクにおいて顕著な効果が認められ、5つの標準的な転移学習データセットで性能の向上が観察された。Sketch-ImageNetデータセットやDTDデータセットにおいて最大11.49%の顕著な性能向上が得られ、サリエンシー地図を用いた追加の視覚的分析結果から、本手法がより優れた表現を学習し、より効果的に転移可能であることが示唆されている。

トランスファーラーニングにおける視覚表現の学習:テクスチャの抑制による | 最新論文 | HyperAI超神経