Un réseau de neurones profond contraint pour la régression ordinale

La régression ordinale est un problème d’apprentissage supervisé visant à classer des instances dans des catégories ordonnées. Il est particulièrement difficile d’extraire automatiquement des caractéristiques de haut niveau capables de représenter à la fois l’information intra-classe et la relation ordonnée inter-classe. Ce papier propose une formulation d’optimisation contrainte pour le problème de régression ordinale, qui minimise la log-vraisemblance négative pour plusieurs catégories sous la contrainte de l’ordre entre les instances. Mathématiquement, cette formulation équivaut à une formulation sans contrainte munie d’un régulariseur par paires. Une implémentation basée sur le cadre CNN est proposée afin de résoudre ce problème, permettant ainsi une extraction automatique des caractéristiques de haut niveau et l’apprentissage de la solution optimale via la méthode classique de rétropropagation. Les contraintes par paires proposées permettent à l’algorithme de fonctionner efficacement même sur de petits jeux de données, tandis qu’une implémentation efficace garantit sa scalabilité sur de grands jeux de données. Les résultats expérimentaux obtenus sur quatre benchmarks réels démontrent que l’algorithme proposé surpasser les approches classiques d’apprentissage profond ainsi que d’autres méthodes de pointe reposant sur des caractéristiques conçues manuellement.