HyperAIHyperAI
vor 2 Monaten

CurriculumNet: Schwach überwachtes Lernen anhand von groß angelegten Web-Bildern

Sheng Guo; Weilin Huang; Haozhi Zhang; Chenfan Zhuang; Dengke Dong; Matthew R. Scott; Dinglong Huang
CurriculumNet: Schwach überwachtes Lernen anhand von groß angelegten Web-Bildern
Abstract

Wir präsentieren einen einfachen, aber effizienten Ansatz, der es ermöglicht, tiefe neuronale Netze mit groß angelegten, schwach überwachten Webbildern zu trainieren, die roh aus dem Internet durch Textabfragen gewonnen werden, ohne jegliche manuelle Annotation. Wir entwickeln eine fundierte Lernstrategie unter Verwendung des Curriculum Learnings, um eine große Menge an verrauschten Labels und Datenungleichgewichten effektiv zu bewältigen. Wir entwerfen ein neues Lerncurriculum, indem wir die Komplexität der Daten durch deren Dichte im Merkmalsraum messen und diese in einer unüberwachten Weise rangieren. Dies ermöglicht eine effiziente Implementierung des Curriculum Learnings auf groß angelegten Webbildern und führt zu einem hochleistungsfähigen CNN-Modell, bei dem der negative Einfluss verrauschter Labels erheblich reduziert wird. Von besonderer Bedeutung ist, dass wir durch Experimente zeigen können, dass Bilder mit stark verrauschten Labels überraschenderweise die Generalisierungsfähigkeit des Modells verbessern können, indem sie als Regularisierungsform dienen. Unsere Ansätze erzielen den aktuellen Stand der Technik auf vier Benchmarks: WebVision, ImageNet, Clothing-1M und Food-101. Mit einem Ensemble mehrerer Modelle erreichten wir einen Top-5-Fehler von 5,2 % bei der WebVision-Herausforderung für die Klassifikation von 1000 Kategorien. Dieses Ergebnis war deutlich besser als das zweitbeste Modell und übertreffen es um fast 50 % in Bezug auf den relativen Fehler. Der Quellcode und die Modelle sind unter folgendem Link verfügbar: https://github.com/MalongTech/CurriculumNet .