HyperAIHyperAI
il y a 2 mois

Apprentissage d'embeddings ordinaux probabilistes pour la régression avec prise en compte de l'incertitude

Li, Wanhua ; Huang, Xiaoke ; Lu, Jiwen ; Feng, Jianjiang ; Zhou, Jie
Apprentissage d'embeddings ordinaux probabilistes pour la régression avec prise en compte de l'incertitude
Résumé

L'incertitude est la seule certitude qui existe. La modélisation de l'incertitude des données est essentielle pour la régression, en particulier dans les cadres non contraints. Traditionnellement, la formulation directe de la régression est considérée et l'incertitude est modélisée en modifiant l'espace de sortie pour qu'il appartienne à une certaine famille de distributions probabilistes. Cependant, les solutions basées sur la classification et le classement sont plus populaires en pratique, tandis que les méthodes de régression directe souffrent d'une performance limitée. Comment modéliser l'incertitude au sein des technologies actuelles pour la régression reste un problème ouvert. Dans cet article, nous proposons d'apprendre des plongements ordinaux probabilistes qui représentent chaque donnée par une distribution gaussienne multivariée plutôt que par un point déterministe dans l'espace latent. Une contrainte de distribution ordinale est proposée pour exploiter la nature ordinale de la régression. Nos plongements ordinaux probabilistes peuvent être intégrés dans des approches de régression populaires et leur confèrent la capacité d'estimation de l'incertitude. Les résultats expérimentaux montrent que notre approche atteint une performance compétitive. Le code est disponible à l'adresse suivante : https://github.com/Li-Wanhua/POEs.

Apprentissage d'embeddings ordinaux probabilistes pour la régression avec prise en compte de l'incertitude | Articles de recherche récents | HyperAI