2ヶ月前

訓練-テスト解像度の不一致の修正

Hugo Touvron; Andrea Vedaldi; Matthijs Douze; Hervé Jégou
訓練-テスト解像度の不一致の修正
要約

データ拡張は、画像分類のためのニューラルネットワークの学習において重要な役割を果たします。本論文ではまず、既存のデータ拡張手法が、学習時とテスト時に分類器が認識する物体の典型的なサイズ間に著しい乖離を引き起こすことを示しています。我々は実験的に検証し、目標とするテスト解像度に対して低い学習解像度を使用することで、テスト時の分類性能が向上することを確認しました。次に、学習解像度とテスト解像度が異なる場合の分類器性能を最適化するための単純かつ効果的で効率的な戦略を提案します。この方法は、テスト解像度でのネットワークの微調整のみを必要とし、計算コストが低くなっています。これにより、小さな訓練画像を使用して強力な分類器を学習することが可能になります。例えば、128x128ピクセルの画像で学習したResNet-50ではImageNetで77.1%のトップ-1精度を達成し、224x224ピクセルの画像で学習した場合は79.8%(トップ-5:94.9%)の精度を得ました。さらに、追加の訓練データを使用すると、224x224ピクセルの画像で学習したResNet-50では82.5%(トップ-5:96.3%)の精度が得られます。一方、弱教師あり方式で9億4000万枚の公開画像(解像度224x224ピクセル)から事前学習されたResNeXt-101 32x48dモデルについて、テスト解像度320x320ピクセルでのさらなる最適化を行った結果、テスト時のトップ-1精度は86.4%(トップ-5:98.0%)(シングルクロップ)を達成しました。当該研究者らが知る限り、これはこれまでに報告されたImageNetにおけるシングルクロップでの最高のトップ-1およびトップ-5精度です。

訓練-テスト解像度の不一致の修正 | 最新論文 | HyperAI超神経