HyperAIHyperAI
il y a 16 jours

Amélioration de la régression profonde par entropie ordinaire

Shihao Zhang, Linlin Yang, Michael Bi Mi, Xiaoxu Zheng, Angela Yao
Amélioration de la régression profonde par entropie ordinaire
Résumé

En vision par ordinateur, il est fréquemment observé que formuler des problèmes de régression sous la forme d’une tâche de classification permet d’obtenir de meilleures performances. Nous étudions ce phénomène surprenant et fournissons une dérivation montrant que la classification, utilisant la perte d’entropie croisée, surpasserait la régression basée sur la perte d’erreur quadratique moyenne en ce qui concerne l’apprentissage de représentations de caractéristiques à haute entropie. À partir de cette analyse, nous proposons une nouvelle perte d’entropie ordonnée, conçue pour encourager des espaces de caractéristiques à entropie plus élevée tout en préservant les relations ordinales, afin d’améliorer les performances des tâches de régression. Des expériences menées sur des tâches de régression synthétiques et réelles mettent en évidence l’importance et les avantages de l’augmentation de l’entropie pour la régression.