HyperAIHyperAI

Command Palette

Search for a command to run...

Mr. DETR: Anleitende Mehrpfad-Training für Detektions-Transformers

Chang-Bin Zhang Yujie Zhong Kai Han

Zusammenfassung

Bekannte Methoden verbessern die Ausbildung von Detektions-Transformern, indem sie eine ergänzende one-to-many-Zuordnung integrieren. In dieser Arbeit betrachten wir das Modell als ein Multi-Task-Framework, das gleichzeitig one-to-one- und one-to-many-Vorhersagen durchführt. Wir untersuchen die Rolle jedes einzelnen Bausteins im Transformer-Decoder in Bezug auf diese beiden Trainingsziele, einschließlich Selbst-Attention, Cross-Attention und Feed-Forward-Netzwerk. Unsere empirischen Ergebnisse zeigen, dass jeder einzelne Bestandteil des Decoders effektiv beide Ziele gleichzeitig lernen kann, selbst wenn andere Komponenten geteilt werden. Diese Erkenntnis führt uns zu einem neuen Multi-Route-Trainingsschema, das eine Hauptroute für die one-to-one-Vorhersage und zwei ergänzende Trainingspfade für die one-to-many-Vorhersage umfasst. Wir verbessern das Trainingsverfahren durch eine neuartige instruktive Selbst-Attention, die objektbezogene Anfragen für die one-to-many-Vorhersage dynamisch und flexibel leitet. Die ergänzenden Pfade werden während der Inferenz entfernt, sodass weder die Modellarchitektur noch die Inferenzkosten beeinflusst werden. Wir führen umfangreiche Experimente an verschiedenen Baselines durch und erzielen konsistente Verbesserungen, wie in Abbildung 1 dargestellt ist. Projektseite: https://visual-ai.github.io/mrdetr


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Mr. DETR: Anleitende Mehrpfad-Training für Detektions-Transformers | Paper | HyperAI