HyperAIHyperAI

Command Palette

Search for a command to run...

Amélioration de l'apprentissage peu supervisé grâce à une perte à marge adaptative

Aoxue Li Weiran Huang Xu Lan Jiashi Feng Zhenguo Li Liwei Wang

Résumé

L'apprentissage à peu de exemples (few-shot learning, FSL) a suscité un intérêt croissant ces dernières années, bien qu’il reste un défi majeur en raison de la difficulté intrinsèque à généraliser à partir de très peu d’exemples. Ce papier propose un principe de marge adaptative afin d’améliorer la capacité de généralisation des méthodes métriques basées sur la méta-apprentissage pour les problèmes de FSL. Plus précisément, nous introduisons tout d’abord une perte de marge additive liée aux classes, dans laquelle la similarité sémantique entre chaque paire de classes est prise en compte pour séparer les échantillons dans l’espace d’embedding des caractéristiques provenant de classes similaires. Par la suite, nous intégrons le contexte sémantique entre toutes les classes d’une tâche d’entraînement échantillonnée, et proposons une perte de marge additive liée à la tâche, permettant ainsi de mieux distinguer les échantillons provenant de classes différentes. Notre méthode de marge adaptative peut être facilement étendue à un cadre de FSL généralisé plus réaliste. Des expériences abondantes démontrent que la méthode proposée améliore significativement les performances des approches actuelles basées sur la méta-apprentissage métrique, tant dans le cadre standard de FSL que dans celui du FSL généralisé.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp