16日前

自己教師ありResNetの限界に挑戦する:ImageNetにおいてラベルなしで教師あり学習を上回ることは可能か?

Nenad Tomasev, Ioana Bica, Brian McWilliams, Lars Buesing, Razvan Pascanu, Charles Blundell, Jovana Mitrovic
自己教師ありResNetの限界に挑戦する:ImageNetにおいてラベルなしで教師あり学習を上回ることは可能か?
要約

最近、残差ネットワーク(ResNet)を用いた表現学習において自己教師あり手法の進展が見られつつあるものの、ImageNet分類ベンチマークにおいて依然として教師あり学習に劣っており、性能が求められる環境での応用を制限している。ReLIC [Mitrovicら, 2021] が示した先行的な理論的知見を基に、本研究では自己教師あり学習に追加の帰納的バイアス(inductive biases)を導入する。我々は、適切に構成された多様なデータビューに対して、明示的な不変性損失(invariance loss)と対照的学習(contrastive objective)を組み合わせる新しい自己教師あり表現学習手法 ReLICv2 を提案する。このアプローチにより、誤った相関関係の学習を回避し、より情報量の多い表現を獲得することが可能となる。ReLICv2 は、ResNet50 を用いた線形評価において ImageNet でトップ-1精度77.1%を達成し、従来の最良手法を絶対値で+1.5%上回った。より大きなResNetモデルでは、最大で80.6%の精度を達成し、従来の自己教師あり手法と比較して最大+2.3%の優位性を示した。特に注目すべきは、ReLICv2が、さまざまなResNetアーキテクチャにおいて、同種の比較条件下で初めて教師ありベースラインを一貫して上回る無教師表現学習手法となった点である。さらに、ReLICv2を用いることで、従来の手法よりも分布外(out-of-distribution)での一般化性能が向上する、よりロバストで転移性の高い表現を学習可能であることを示した。これは画像分類およびセマンティックセグメンテーションの両タスクにおいて確認された。最後に、ResNetエンコーダを用いているにもかかわらず、ReLICv2は最先端の自己教師ありビジョン変換器(vision transformers)と同等の性能を達成していることを示した。

自己教師ありResNetの限界に挑戦する:ImageNetにおいてラベルなしで教師あり学習を上回ることは可能か? | 最新論文 | HyperAI超神経