Amélioration de l'apprentissage peu supervisé grâce à une perte à marge adaptative

L'apprentissage à peu de exemples (few-shot learning, FSL) a suscité un intérêt croissant ces dernières années, bien qu’il reste un défi majeur en raison de la difficulté intrinsèque à généraliser à partir de très peu d’exemples. Ce papier propose un principe de marge adaptative afin d’améliorer la capacité de généralisation des méthodes métriques basées sur la méta-apprentissage pour les problèmes de FSL. Plus précisément, nous introduisons tout d’abord une perte de marge additive liée aux classes, dans laquelle la similarité sémantique entre chaque paire de classes est prise en compte pour séparer les échantillons dans l’espace d’embedding des caractéristiques provenant de classes similaires. Par la suite, nous intégrons le contexte sémantique entre toutes les classes d’une tâche d’entraînement échantillonnée, et proposons une perte de marge additive liée à la tâche, permettant ainsi de mieux distinguer les échantillons provenant de classes différentes. Notre méthode de marge adaptative peut être facilement étendue à un cadre de FSL généralisé plus réaliste. Des expériences abondantes démontrent que la méthode proposée améliore significativement les performances des approches actuelles basées sur la méta-apprentissage métrique, tant dans le cadre standard de FSL que dans celui du FSL généralisé.