Réduction adaptative de dimension et inférence variationnelle pour la classification peu-show transductive

L'apprentissage transductif à peu de exemples (transductive few-shot learning) attire actuellement une attention croissante, en raison du coût élevé des annotations de données ainsi que de l'amélioration de la précision apportée par les échantillons non étiquetés dans le cadre du few-shot. En particulier, dans le domaine de la classification à peu de exemples (Few-Shot Classification, FSC), les travaux récents s'intéressent aux distributions de caractéristiques afin de maximiser les probabilités a posteriori ou les vraisemblances par rapport aux paramètres inconnus. Dans cette lignée, et en s'appuyant sur la similarité entre la FSC et le regroupement (clustering), nous cherchons à mieux prendre en compte l'incertitude inhérente à l'estimation due au manque de données, ainsi qu'à améliorer les propriétés statistiques des clusters associés à chaque classe. Dans ce cadre, nous proposons une nouvelle méthode de clustering fondée sur une inférence bayésienne variationnelle, améliorée par une réduction de dimension adaptative basée sur l'analyse discriminante linéaire probabiliste (Probabilistic Linear Discriminant Analysis, PLDA). Notre méthode améliore significativement la précision dans un cadre transductif réaliste et déséquilibré sur diverses benchmarks de few-shot, lorsque les caractéristiques utilisées dans des études antérieures sont appliquées, avec une augmentation pouvant atteindre 6 % en précision. En outre, dans un cadre équilibré, nous obtenons des résultats très compétitifs sans recourir à l'artéfact d'équilibre des classes, qui reste controversé dans les cas d'application pratique. Nous fournissons également les performances de notre méthode sur un modèle pré-entraîné hautement performant, dont les résultats dépassent même ceux de l'état de l'art actuel, ce qui souligne la généralité de la méthode proposée.