Sélection de Échantillons Synthétiques pour l'Apprentissage par Généralisation sans Exemples

L'apprentissage par transfert généralisé (GZSL, Generalized Zero-Shot Learning) est devenu un domaine de recherche crucial en vision par ordinateur, grâce à sa capacité à reconnaître des objets qui n'ont pas été vus lors de l'entraînement. Malgré les progrès significatifs réalisés par les techniques génératives dans la conversion du GZSL traditionnel en apprentissage supervisé complet, celles-ci ont tendance à produire un grand nombre de caractéristiques synthétiques souvent redondantes, ce qui augmente le temps d'entraînement et réduit la précision. Pour remédier à ce problème, cet article propose une nouvelle approche de sélection de caractéristiques synthétiques utilisant l'apprentissage par renforcement. Plus précisément, nous proposons un sélecteur basé sur les transformateurs qui est entraîné par l'optimisation de politique proximale (PPO, Proximal Policy Optimization) pour sélectionner des caractéristiques synthétiques en fonction de la précision de classification sur les classes vues lors de la validation, servant ainsi de récompense. La méthode proposée est agnostique au modèle et aux données, ce qui la rend applicable aux images et aux vidéos et polyvalente pour diverses applications. Nos résultats expérimentaux démontrent la supériorité de notre approche par rapport aux méthodes existantes de génération de caractéristiques, offrant une meilleure performance globale sur plusieurs benchmarks.