Classification rapide et flexible multi-tâches à l'aide de processus neuronaux adaptatifs conditionnels

L'objectif de cet article est de concevoir des systèmes de classification d'images capables, après une phase initiale d'entraînement multitâche, de s'adapter automatiquement à de nouvelles tâches rencontrées au moment du test. Nous présentons une approche basée sur un processus neuronal conditionnel pour le cadre de classification multitâche, et établissons des liens avec la littérature sur l'apprentissage métacognitif (meta-learning) et l'apprentissage à partir de peu d'exemples (few-shot learning). L'approche résultante, appelée CNAPs, comprend un classifieur dont les paramètres sont modulés par un réseau d'adaptation prenant en entrée le jeu de données de la tâche actuelle. Nous démontrons que CNAPs obtient des résultats d'état de l'art sur le benchmark difficile Meta-Dataset, indiquant une qualité élevée du transfert d'apprentissage. Nous montrons également que cette approche est robuste, évitant à la fois le surapprentissage dans les régimes à faible nombre d'exemples et le sous-apprentissage dans les régimes à grand nombre d'exemples. Des expériences temporelles révèlent que CNAPs est efficace sur le plan computationnel au moment du test car il ne nécessite pas d'adaptation basée sur les gradients. Enfin, nous montrons que les modèles entraînés peuvent être déployés immédiatement pour l'apprentissage continu et l'apprentissage actif, où ils peuvent surpasser les approches existantes qui ne tirent pas parti du transfert d'apprentissage.