
要約
教師なし学習は、人間の知能におけるダークマターであると主張されています。この方向性で構築するため、本論文では大量のラベルなしデータからの教師なし学習に焦点を当て、その後、ダウンストリームの分類タスクに対する少量の微調整を行うことを目的としています。この目的達成のために、対照的学習を自己監督事前学習に適用する最近の研究を拡張し、反復クラスタリングと再ランキングを通じてクラスレベルの認識を取り入れ、対照的最適化損失関数をこれに対応させるように拡大しました。当方の知識によれば、標準的なシナリオおよびクロスドメインのシナリオでの実験結果は、標準的な mini-ImageNet ベンチマークにおいて (5-way, 1-shot および 5-shot) 設定で新しい最先端 (SoTA) を達成しただけでなく、クロスドメイン CDFSL ベンチマークにおいても (5-way, 5-shot および 20-shot) 設定で新しい最先端 (SoTA) を達成しています。当方のコードと実験結果は GitHub リポジトリで公開されています: https://github.com/ojss/c3lr.