Désenchevêtrement de caractéristiques variationnel pour la classification fine à faibles exemples

La reconnaissance fine à très peu d'exemples souffre souvent du manque de données d'entraînement pour les catégories nouvelles. Le modèle tend à surajuster et à mal généraliser aux classes non vues en raison d'un ensemble d'apprentissage insuffisant. De nombreuses méthodes ont été proposées pour synthétiser des données supplémentaires afin de soutenir l'entraînement. Dans cet article, nous nous concentrons sur l'augmentation de la variance intra-classe des classes non vues afin d'améliorer les performances de classification à très peu d'exemples. Nous supposons que la distribution de la variance intra-classe se généralise entre les classes de base et les classes nouvelles. Par conséquent, la variance intra-classe apprise sur l'ensemble de base peut être transférée à l'ensemble de nouvelles classes pour enrichir les caractéristiques. Plus précisément, nous modélisons d'abord la distribution de la variance intra-classe sur l'ensemble de base à l'aide d'une inférence variationnelle. Ensuite, la distribution apprise est transférée à l'ensemble de nouvelles classes afin de générer des caractéristiques supplémentaires, qui sont utilisées conjointement avec les caractéristiques originales pour entraîner un classificateur. Les résultats expérimentaux montrent une amélioration significative par rapport aux méthodes de pointe sur des benchmarks exigeants de classification d'images fine à très peu d'exemples.