11日前
対照学習における良好なビューを生み出す要因は何ですか?
Yonglong Tian, Chen Sun, Ben Poole, Dilip Krishnan, Cordelia Schmid, Phillip Isola

要約
複数の視点(ビュー)間における対照学習(contrastive learning)は、自己教師付き表現学習分野において近年、最先端の性能を達成している。その成功にもかかわらず、異なるビュー選択の影響については十分に研究されていない。本論文では、理論的および実証的な分析を通じて、ビュー選択の重要性をより深く理解し、タスクに関連する情報を保持しつつ、ビュー間の相互情報量(Mutual Information, MI)を最小化すべきであると主張する。この仮説を検証するため、ビュー間のMIを低減することを目的とした、無監督および半教師付きのフレームワークを提案する。また、データ拡張(data augmentation)がMIの低減に寄与する手段である点にも着目し、データ拡張の強度を高めることでMIが実際に低下し、下流の分類精度が向上することを示した。副次的な成果として、ResNet-50を用いたImageNet分類における無監督事前学習において、新たな最先端の精度(トップ1線形読み出しで73%)を達成した。さらに、PASCAL VOCオブジェクト検出およびCOCOインスタンスセグメンテーションへのモデル転移においても、従来の教師付き事前学習を常に上回る性能を示した。コード:http://github.com/HobbitLong/PyContrast