Une Meilleure Apprentissage par Quelques Exemples Généralisé, Même Sans Données de Base

Ce document introduit et étudie l'apprentissage par transfert généralisé à partir de quelques exemples sans données de base (zero-base GFSL), qui est une version extrême mais pratique du problème d'apprentissage par transfert à partir de quelques exemples. Motivé par les cas où les données de base ne sont pas disponibles en raison de questions de confidentialité ou d'éthique, l'objectif du zero-base GFSL est d'intégrer la connaissance de quelques échantillons de nouvelles classes dans un modèle pré-entraîné sans utiliser aucun échantillon des classes de base. Selon notre analyse, nous avons découvert que la moyenne et la variance de la distribution des poids des nouvelles classes ne sont pas correctement établies, comparées à celles des classes de base. Les méthodes existantes en GFSL tentent d'équilibrer les normes des poids, ce qui, selon nos observations, n'aide que la partie variance, mais néglige l'importance de la moyenne des poids, particulièrement pour les nouvelles classes, conduisant ainsi à une performance limitée dans le problème GFSL même avec des données de base. Dans cet article, nous surmontons cette limitation en proposant une méthode de normalisation simple mais efficace qui peut contrôler efficacement à la fois la moyenne et la variance de la distribution des poids des nouvelles classes sans utiliser aucune donnée de base, permettant ainsi d'obtenir une performance satisfaisante sur les nouvelles et les classes de base. Nos résultats expérimentaux montrent quelque peu surprenamment que la méthode zero-base GFSL proposée, qui ne fait usage d'aucun échantillon de classe de base, surpass même les méthodes existantes en GFSL qui utilisent au mieux les données de base. Notre implémentation est disponible à : https://github.com/bigdata-inha/Zero-Base-GFSL.