
摘要
我们提出了一种名为Self-Classifier的新颖自监督端到端分类学习方法。Self-Classifier通过优化同一样本的两个增强视图的同类别预测,在单阶段内以端到端的方式同时学习标签和表示。为了保证非退化解(即所有标签不会被分配到同一个类别),我们提出了一种数学上有根据的交叉熵损失变体,该变体在预测标签上设定了均匀先验。在我们的理论分析中,我们证明了退化解不在我们方法的最优解集合中。Self-Classifier实现简单且可扩展。与其他流行的无监督分类和对比表示学习方法不同,它不需要任何形式的预训练、期望最大化、伪标签、外部聚类、第二个网络、停止梯度操作或负样本对。尽管其方法简单,但我们的方法在ImageNet数据集上的无监督分类任务中达到了新的最先进水平;甚至在无监督表示学习任务中也取得了与最先进方法相当的结果。代码可在https://github.com/elad-amrani/self-classifier 获取。