HyperAIHyperAI

Command Palette

Search for a command to run...

Selbstüberwachtes Vortrainieren visueller Merkmale in der Wildnis

Zusammenfassung

Kürzlich haben selbstüberwachte Lernmethoden wie MoCo, SimCLR, BYOL und SwAV die Lücke zu überwachten Methoden verringert. Diese Ergebnisse wurden in einer kontrollierten Umgebung erzielt, nämlich dem hochgradig präparierten ImageNet-Datensatz. Der zentrale Anspruch selbstüberwachten Lernens besteht jedoch darin, aus beliebigen zufälligen Bildern und aus beliebigen, unbeschränkten Datensätzen lernen zu können. In dieser Arbeit untersuchen wir, ob sich selbstüberwachtes Lernen tatsächlich angesichts dieser Erwartung bewährt, indem wir große Modelle auf zufälligen, unvorbereiteten Bildern ohne jegliche Überwachung trainieren. Unser endgültiges SElf-supERvised (SEER)-Modell, ein RegNetY mit 1,3 Milliarden Parametern, das auf 1 Milliarde zufälligen Bildern mit 512 GPUs trainiert wurde, erreicht eine Top-1-Accuracy von 84,2 % – dies übertrifft das beste bisherige selbstüberwachte vortrainierte Modell um 1 Prozent und bestätigt, dass selbstüberwachtes Lernen auch in einer realen Weltumgebung funktioniert. Interessanterweise stellen wir außerdem fest, dass selbstüberwachte Modelle hervorragende Few-Shot-Lerner sind: Mit Zugriff auf lediglich 10 % von ImageNet erreichen sie eine Top-1-Accuracy von 77,9 %. Code: https://github.com/facebookresearch/vissl


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp