HyperAIHyperAI
il y a 11 jours

Contraste de momentum pour l'apprentissage non supervisé de représentations visuelles

Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, Ross Girshick
Contraste de momentum pour l'apprentissage non supervisé de représentations visuelles
Résumé

Nous présentons Momentum Contrast (MoCo) pour l’apprentissage non supervisé de représentations visuelles. En considérant l’apprentissage contrastif comme une opération de recherche dans un dictionnaire, nous construisons un dictionnaire dynamique à l’aide d’une file d’attente (queue) et d’un encodeur à moyenne mobile. Cette approche permet de constituer en temps réel un dictionnaire de grande taille et cohérent, ce qui favorise l’apprentissage contrastif non supervisé. MoCo obtient des résultats compétitifs selon le protocole linéaire standard sur la classification d’ImageNet. Plus important encore, les représentations apprises par MoCo se transmettent efficacement aux tâches ultérieures. MoCo surpasse son homologue pré-entraîné de manière supervisée sur 7 tâches de détection et de segmentation sur les jeux de données PASCAL VOC, COCO et d’autres, parfois avec des écarts significatifs. Cela indique que l’écart entre l’apprentissage non supervisé et supervisé des représentations a été largement réduit dans de nombreuses tâches de vision.

Contraste de momentum pour l'apprentissage non supervisé de représentations visuelles | Articles de recherche récents | HyperAI