HyperAIHyperAI
il y a 2 mois

Préconditionneur Spécifique à la Tâche pour l'Apprentissage par Quelques Exemples en Domaines Différents

Kang, Suhyun ; Park, Jungwon ; Lee, Wonseok ; Rhee, Wonjong
Préconditionneur Spécifique à la Tâche pour l'Apprentissage par Quelques Exemples en Domaines Différents
Résumé

Les méthodes d'apprentissage par transfert à faibles données (Cross-Domain Few-Shot Learning, CDFSL) paramètrent généralement les modèles avec des paramètres indépendants de la tâche et des paramètres spécifiques à la tâche. Pour adapter les paramètres spécifiques à la tâche, les approches récentes ont utilisé des stratégies d'optimisation fixes, malgré leur potentiel sous-optimalité dans différents domaines ou tâches cibles. Afin de résoudre ce problème, nous proposons un nouveau mécanisme d'adaptation appelé descente de gradient préconditionnée spécifique à la tâche (Task-Specific Preconditioned gradient descent, TSP). Notre méthode commence par apprendre de manière métadynamique des préconditionneurs spécifiques au domaine (Domain-Specific Preconditioners, DSPs) qui capturent les caractéristiques de chaque domaine de métatrain. Ces préconditionneurs sont ensuite combinés linéairement en utilisant des coefficients de tâche pour former le préconditionneur spécifique à la tâche. Le préconditionneur est appliqué à la descente de gradient, rendant l'optimisation adaptative à la tâche cible. Nous restreignons nos préconditionneurs pour qu'ils soient définis positifs, guidant ainsi le gradient préconditionné vers la direction de descente maximale. Les évaluations empiriques sur le Meta-Dataset montrent que TSP atteint des performances de pointe dans divers scénarios expérimentaux.