Contraintes de unimodalité non paramétriques pour la classification ordonnée profonde
Nous proposons une nouvelle formulation d'optimisation sous contraintes pour la classification ordonnée profonde, dans laquelle l'unimodalité de la distribution des étiquettes est imposée implicitement par un ensemble de contraintes d'inégalité sur toutes les paires d'étiquettes adjacentes. Basé sur (c-1) contraintes pour c étiquettes, notre modèle est non paramétrique et, par conséquent, plus flexible que les techniques existantes de classification ordonnée profonde. Contrairement à celles-ci, il n'impose pas une représentation apprise à un seul et spécifique modèle paramétrique (ou pénalité) appliqué à toutes les étiquettes. Par conséquent, il permet au processus d'apprentissage d'explorer des espaces de solutions plus vastes tout en éliminant le besoin de choix ad hoc et en s'adaptant aux grands nombres d'étiquettes. Il peut être utilisé conjointement avec toute perte de classification standard et toute architecture profonde.Pour aborder le problème d'optimisation complexe qui en découle, nous résolvons une séquence de pertes non contraintes basées sur une extension puissante de la méthode du logarithme-barrière. Cette approche gère efficacement les contraintes concurrentes et s'adapte à la descente de gradient stochastique standard (SGD) pour les réseaux profonds, tout en évitant les étapes duales lagrangiennes coûteuses en termes de calcul et en surpassant considérablement les méthodes de pénalisation. De plus, nous proposons une nouvelle métrique de performance pour la classification ordonnée, utilisée comme proxy pour mesurer l'unimodalité de la distribution des étiquettes, appelée l'Indice d'Ordre Latéral (Sides Order Index - SOI).Nous présentons des évaluations exhaustives et des comparaisons avec les méthodes les plus avancées actuellement disponibles sur des jeux de données publics benchmark pour plusieurs tâches de classification ordonnée, démontrant ainsi les avantages de notre approche en termes de cohérence des étiquettes, précision de classification et scalabilité. Il est important de noter que l'imposition de la cohérence des étiquettes avec notre modèle ne génère pas d'erreurs supplémentaires en classification, contrairement à nombreuses méthodes existantes de classification ordonnée. Une implémentation publique reproductible en PyTorch est fournie.(https://github.com/sbelharbi/unimodal-prob-deep-oc-free-distribution)