HyperAIHyperAI
vor 2 Monaten

Reduktion der Klassenaktivierungunsicherheit durch Hintergrundinformationen

H M Dipu Kabir
Reduktion der Klassenaktivierungunsicherheit durch Hintergrundinformationen
Abstract

Das Mehrfachaufgabenlernen (multitask learning) ist ein weit verbreiteter Ansatz zur Ausbildung hochleistungsfähiger neuronaler Netze mit verbesserten Generalisierungseigenschaften. In dieser Arbeit schlagen wir eine Hintergrundklasse vor, die eine bessere Generalisierung bei geringerem Rechenaufwand als das Mehrfachaufgabenlernen ermöglicht und somit Forschern und Organisationen mit begrenzten Rechenressourcen behilflich sein soll. Zudem stellen wir eine Methode zur Auswahl von Hintergrundbildern vor und diskutieren mögliche zukünftige Verbesserungen. Wir wenden unseren Ansatz auf mehrere Datensätze an und erreichen eine verbesserte Generalisierung bei deutlich geringerem Rechenaufwand. Durch die Klassenaktivierungskarten (Class Activation Mappings, CAMs) der trainierten Modelle konnten wir beobachten, dass das vorgeschlagene Modelltrainingsverfahren dazu neigt, ein umfassenderes Bild zu betrachten. Die Anwendung des Vision Transformers mit der vorgeschlagenen Hintergrundklasse führt zu Stand-of-the-Art-(SOTA)-Leistungen auf den Datensätzen CIFAR-10C, Caltech-101 und CINIC-10. Beispielskripte sind im Ordner CAM des folgenden GitHub-Repository verfügbar: github.com/dipuk0506/UQ

Reduktion der Klassenaktivierungunsicherheit durch Hintergrundinformationen | Neueste Forschungsarbeiten | HyperAI