Régression Ordinale Profonde avec Diversité des Étiquettes

La régression par classification (RvC) est une méthode couramment utilisée pour les problèmes de régression dans l'apprentissage profond, où la variable cible appartient à un ensemble de valeurs continues. En discrétisant la variable cible en un ensemble de classes non superposées, il a été démontré que l'entraînement d'un classifieur peut améliorer la précision des réseaux de neurones par rapport à l'utilisation d'une approche de régression standard. Cependant, il n'est pas clair comment l'ensemble de classes discrètes devrait être choisi et comment cela affecte la solution globale. Dans ce travail, nous proposons que l'utilisation simultanée de plusieurs représentations discrètes des données peut améliorer l'apprentissage des réseaux de neurones par rapport à une seule représentation. Notre approche est entièrement différentiable et peut être ajoutée comme une extension simple aux méthodes d'apprentissage conventionnelles, telles que les réseaux de neurones profonds. Nous testons notre méthode sur trois tâches difficiles et montrons que notre méthode réduit l'erreur de prédiction par rapport à une approche RvC basique tout en maintenant une complexité du modèle similaire.