HyperAIHyperAI

Command Palette

Search for a command to run...

Reduktion der Klassenaktivierungunsicherheit durch Hintergrundinformationen

H M Dipu Kabir

Zusammenfassung

Das Mehrfachaufgabenlernen (multitask learning) ist ein weit verbreiteter Ansatz zur Ausbildung hochleistungsfähiger neuronaler Netze mit verbesserten Generalisierungseigenschaften. In dieser Arbeit schlagen wir eine Hintergrundklasse vor, die eine bessere Generalisierung bei geringerem Rechenaufwand als das Mehrfachaufgabenlernen ermöglicht und somit Forschern und Organisationen mit begrenzten Rechenressourcen behilflich sein soll. Zudem stellen wir eine Methode zur Auswahl von Hintergrundbildern vor und diskutieren mögliche zukünftige Verbesserungen. Wir wenden unseren Ansatz auf mehrere Datensätze an und erreichen eine verbesserte Generalisierung bei deutlich geringerem Rechenaufwand. Durch die Klassenaktivierungskarten (Class Activation Mappings, CAMs) der trainierten Modelle konnten wir beobachten, dass das vorgeschlagene Modelltrainingsverfahren dazu neigt, ein umfassenderes Bild zu betrachten. Die Anwendung des Vision Transformers mit der vorgeschlagenen Hintergrundklasse führt zu Stand-of-the-Art-(SOTA)-Leistungen auf den Datensätzen CIFAR-10C, Caltech-101 und CINIC-10. Beispielskripte sind im Ordner CAM des folgenden GitHub-Repository verfügbar: github.com/dipuk0506/UQ


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp