HyperAIHyperAI

Command Palette

Search for a command to run...

D3Former : Transformer à double distillation débiaisée pour l’apprentissage incrémental

Abdelrahman Mohamed Rushali Grandhe K J Joseph Salman Khan Fahad Khan

Résumé

Dans le cadre de l'apprentissage incrémental en classes (CIL), des groupes de classes sont introduits progressivement à un modèle au cours de chaque phase d'apprentissage. L'objectif consiste à apprendre un modèle unifié performant sur l'ensemble des classes observées jusqu'alors. Étant donné la popularité croissante des Vision Transformers (ViTs) dans les tâches classiques de classification, une question intéressante consiste à étudier leur comportement en apprentissage continu. Dans ce travail, nous proposons un modèle de Transformer débiaisé et à double distillation pour le CIL, nommé D3Former\textrm{D}^3\textrm{Former}D3Former. Le modèle proposé exploite une architecture hybride en nid de ViTs afin d’assurer une efficacité des données et une scalabilité à la fois sur des jeux de données petits et grands. Contrairement à une approche récente basée sur les ViTs pour le CIL, notre D3Former\textrm{D}^3\textrm{Former}D3Former ne modifie pas dynamiquement sa structure lors de l’apprentissage de nouvelles tâches, ce qui le rend adapté à un grand nombre de tâches incrémentales. L’amélioration de ses performances en CIL s’explique par deux modifications fondamentales apportées à la conception des ViTs. Premièrement, nous traitons l’apprentissage incrémental comme un problème de classification à queue longue, où le nombre de données provenant des nouvelles classes domine largement le petit nombre d’exemplaires disponibles pour les anciennes classes. Afin d’éviter un biais en faveur des nouvelles classes au détriment des anciennes (minoritaires), nous proposons d’ajuster dynamiquement les logits pour renforcer la préservation des représentations pertinentes aux tâches anciennes. Deuxièmement, nous proposons de préserver la configuration des cartes d’attention spatiale au fil de l’apprentissage à travers les tâches. Cette stratégie contribue à réduire le « oubli catastrophique » en contraindre le modèle à maintenir son attention sur les régions les plus discriminantes. D3Former\textrm{D}^3\textrm{Former}D3Former obtient des résultats favorables sur des versions incrémentales des jeux de données CIFAR-100, MNIST, SVHN et ImageNet. Le code est disponible à l’adresse https://tinyurl.com/d3former


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp