
近年、深層学習は先進的なニューラルネットワーク構造と大規模な人間によるアノテーションデータセットの支援により大きな成功を収めています。しかし、特に細かいラベルが必要な専門分野において、大規模データセットを正確かつ効率的にアノテートすることはしばしば高コストで困難です。この状況下では、専門知識を必要としない粗いラベルがはるかに容易に取得できます。本研究では、粗いラベルを使用してより細かいラベル付け問題に対処する未探索の問題設定に対応するために、$\textbf{Mask}$ed $\textbf{Con}$trastive learning($\textbf{MaskCon}$)と呼ばれる対照学習手法を提案します。具体的には、対照学習フレームワーク内で、各サンプルに対して当手法は他のサンプルや該当サンプルの別の拡張ビューとの比較により、粗いラベルを用いてソフトラベルを生成します。自己教師なし対照学習ではサンプルの拡張のみがハードポジティブとして考慮され、教師あり対照学習では同じ粗いラベルを持つサンプルのみがハードポジティブとして考慮されるのとは異なり、我々はサンプル間距離に基づくソフトラベルを提案し、これを粗いラベルによってマスクします。これにより、サンプル間関係と粗いラベルの両方を利用することができます。我々は当手法が多くの既存の最先端研究の特別ケースとして得られることを示し、一般化誤差に対するより厳密な境界を与えることを確認しました。実験結果からも、CIFAR10, CIFAR100, ImageNet-1K, Standford Online Products, Stanford Cars196 などの様々なデータセットにおいて現在の最先端手法よりも大幅な改善が達成できることを示しています。コードとアノテーションは https://github.com/MrChenFeng/MaskCon_CVPR2023 で公開されています。