HyperAIHyperAI

Command Palette

Search for a command to run...

Amélioration de la régression profonde par entropie ordinaire

Shihao Zhang Linlin Yang Michael Bi Mi Xiaoxu Zheng Angela Yao

Résumé

En vision par ordinateur, il est fréquemment observé que formuler des problèmes de régression sous la forme d’une tâche de classification permet d’obtenir de meilleures performances. Nous étudions ce phénomène surprenant et fournissons une dérivation montrant que la classification, utilisant la perte d’entropie croisée, surpasserait la régression basée sur la perte d’erreur quadratique moyenne en ce qui concerne l’apprentissage de représentations de caractéristiques à haute entropie. À partir de cette analyse, nous proposons une nouvelle perte d’entropie ordonnée, conçue pour encourager des espaces de caractéristiques à entropie plus élevée tout en préservant les relations ordinales, afin d’améliorer les performances des tâches de régression. Des expériences menées sur des tâches de régression synthétiques et réelles mettent en évidence l’importance et les avantages de l’augmentation de l’entropie pour la régression.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp