HyperAIHyperAI

Command Palette

Search for a command to run...

Le marge négative compte : compréhension de la marge dans la classification à faible exemplaire

Bin Liu Yue Cao Yutong Lin Qi Li Zheng Zhang Mingsheng Long Han Hu

Résumé

Cet article présente une perte à marge négative pour les méthodes d’apprentissage métrique en apprentissage par peu d’exemples (few-shot learning). Cette perte à marge négative dépasse significativement la perte softmax classique, atteignant des performances de précision de pointe sur trois benchmarks standards de classification en peu d’exemples, avec très peu de composants supplémentaires. Ces résultats contredisent la pratique courante dans le domaine de l’apprentissage métrique, où la marge est généralement nulle ou positive. Pour comprendre pourquoi la perte à marge négative se révèle efficace pour la classification en peu d’exemples, nous analysons de manière empirique et théorique la discriminabilité des caractéristiques apprises en fonction de différentes valeurs de marge, tant pour les classes d’entraînement que pour les classes nouvelles. Nous constatons qu’alors que la marge négative réduit la discriminabilité des caractéristiques pour les classes d’entraînement, elle peut aussi empêcher l’affectation erronée d’échantillons appartenant à la même classe nouvelle vers plusieurs pics ou clusters distincts, ce qui favorise ainsi la discrimination des classes nouvelles. Le code est disponible à l’adresse suivante : https://github.com/bl0/negative-margin.few-shot.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp