HyperAIHyperAI
vor 11 Tagen

Komprehensives Aufmerksamkeits-Self-Distillation für schwach beschriftete Objektdetektion

Zeyi Huang, Yang Zou, Vijayakumar Bhagavatula, Dong Huang
Komprehensives Aufmerksamkeits-Self-Distillation für schwach beschriftete Objektdetektion
Abstract

Schwach beschriftete Objektdetektion (Weakly Supervised Object Detection, WSOD) ist zu einem effektiven Werkzeug geworden, um Objektdetektoren ausschließlich anhand von bildweisen Kategorielabels zu trainieren. Ohne objektweise Annotationen neigen WSOD-Detektoren jedoch dazu, Bounding Boxes auf auffällige Objekte, gruppierte Objekte sowie diskriminative Objektteile zu detektieren. Zudem erzwingen bildweise Kategorielabel keine konsistente Objektdetektion über verschiedene Transformationen derselben Bilder hinweg. Um diese Probleme anzugehen, schlagen wir einen umfassenden Aufmerksamkeits-Selbst-Distillation (Comprehensive Attention Self-Distillation, CASD)-Trainingsansatz für WSOD vor. Um das Merkmalslernen über alle Objektinstanzen hinweg auszugleichen, berechnet CASD die umfassende Aufmerksamkeit, die aus mehreren Transformationen und Merkmalschichten desselben Bildes aggregiert wird. Um eine konsistente räumliche Supervision auf Objekte zu gewährleisten, führt CASD eine Selbst-Distillation in den WSOD-Netzwerken durch, sodass die umfassende Aufmerksamkeit gleichzeitig durch mehrere Transformationen und Merkmalschichten desselben Bildes approximiert wird. CASD erzielt neue SOTA-Ergebnisse (State-of-the-Art) für WSOD auf etablierten Benchmarks wie PASCAL VOC 2007/2012 und MS-COCO.

Komprehensives Aufmerksamkeits-Self-Distillation für schwach beschriftete Objektdetektion | Neueste Forschungsarbeiten | HyperAI