HyperAIHyperAI

Command Palette

Search for a command to run...

Momentum Contrast für die selbstüberwachte visuelle Repräsentationslernen

Kaiming He Haoqi Fan Yuxin Wu Saining Xie Ross Girshick

Zusammenfassung

Wir präsentieren Momentum Contrast (MoCo) für das selbstlernende visuelle Repräsentationslernen. Aus der Perspektive des kontrastiven Lernens als Wörterbuchabfrage bauen wir ein dynamisches Wörterbuch mit einer Warteschlange und einem beweglich gemittelten Encoder auf. Dadurch lässt sich ein großes und konsistentes Wörterbuch in Echtzeit erstellen, was das kontrastive selbstlernende Lernen fördert. MoCo erzielt wettbewerbsfähige Ergebnisse beim gängigen Linearprotokoll für die ImageNet-Klassifikation. Noch wichtiger ist, dass die durch MoCo erlernten Repräsentationen gut auf nachgeschaltete Aufgaben übertragbar sind. MoCo schlägt seine vergleichbare vorgelernende, überwachte Variante in sieben Detektions- und Segmentierungsaufgaben auf den Datensätzen PASCAL VOC, COCO und anderen, manchmal mit deutlichen Vorsprüngen. Dies deutet darauf hin, dass die Lücke zwischen selbstlernendem und überwachtem Repräsentationslernen in vielen visuellen Aufgaben weitgehend geschlossen wurde.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Momentum Contrast für die selbstüberwachte visuelle Repräsentationslernen | Paper | HyperAI