HyperAIHyperAI

Command Palette

Search for a command to run...

Contraste de momentum pour l'apprentissage non supervisé de représentations visuelles

Kaiming He Haoqi Fan Yuxin Wu Saining Xie Ross Girshick

Résumé

Nous présentons Momentum Contrast (MoCo) pour l’apprentissage non supervisé de représentations visuelles. En considérant l’apprentissage contrastif comme une opération de recherche dans un dictionnaire, nous construisons un dictionnaire dynamique à l’aide d’une file d’attente (queue) et d’un encodeur à moyenne mobile. Cette approche permet de constituer en temps réel un dictionnaire de grande taille et cohérent, ce qui favorise l’apprentissage contrastif non supervisé. MoCo obtient des résultats compétitifs selon le protocole linéaire standard sur la classification d’ImageNet. Plus important encore, les représentations apprises par MoCo se transmettent efficacement aux tâches ultérieures. MoCo surpasse son homologue pré-entraîné de manière supervisée sur 7 tâches de détection et de segmentation sur les jeux de données PASCAL VOC, COCO et d’autres, parfois avec des écarts significatifs. Cela indique que l’écart entre l’apprentissage non supervisé et supervisé des représentations a été largement réduit dans de nombreuses tâches de vision.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp