Perte d'égalisation v2 : Une nouvelle approche d'équilibre des gradients pour la détection d'objets à queue longue

Récemment, les méthodes d'entraînement décorrélées émergent comme un paradigme dominant pour la détection d'objets à queue longue. Cependant, elles nécessitent une étape supplémentaire de réglage fin et l'optimisation disjointe de la représentation et du classifieur peut entraîner des résultats sous-optimaux. Par ailleurs, les méthodes d'entraînement de bout en bout, telles que la perte d'équilibration (EQL), continuent de performer moins bien que les méthodes d'entraînement décorrélées. Dans cet article, nous révélons que le principal problème dans la détection d'objets à queue longue est le déséquilibre des gradients entre les exemples positifs et négatifs, et nous constatons que l'EQL ne le résout pas efficacement. Pour remédier au problème de déséquilibre des gradients, nous introduisons une nouvelle version de la perte d'équilibration, appelée perte d'équilibration v2 (EQL v2), un mécanisme novateur de rééquilibrage guidé par les gradients qui rééquilibre le processus d'entraînement pour chaque catégorie indépendamment et équitablement. De nombreuses expériences sont menées sur le banc d'essai LVIS, un benchmark difficile. L'EQL v2 dépasse l'EQL original d'environ 4 points en AP global avec des améliorations de 14 à 18 points sur les catégories rares. Plus important encore, elle surpasse également les méthodes d'entraînement décorrélées. Sans réglage supplémentaire pour le jeu de données Open Images, l'EQL v2 améliore l'EQL de 7,3 points en AP, démontrant une forte capacité de généralisation. Le code source a été publié sur https://github.com/tztztztz/eqlv2.