HyperAIHyperAI
il y a 2 mois

Optimisation générative latente implicite conditionnelle lors de l'apprentissage à partir d'échantillons réduits

Idan Azuri; Daphna Weinshall
Optimisation générative latente implicite conditionnelle lors de l'apprentissage à partir d'échantillons réduits
Résumé

Nous reprenons le problème de longue date de l'apprentissage à partir d'un petit échantillon, pour lequel nous proposons une nouvelle méthode appelée GLICO (Generative Latent Implicit Conditional Optimization). GLICO apprend une correspondance entre les exemples d'entraînement et un espace latent, ainsi qu'un générateur capable de produire des images à partir de vecteurs dans cet espace latent. Contrairement à la plupart des travaux récents, qui s'appuient sur l'accès à de grandes quantités de données non étiquetées, GLICO n'a pas besoin d'accéder à des données supplémentaires autres que le petit ensemble de points étiquetés. En effet, GLICO apprend à synthétiser des échantillons entièrement nouveaux pour chaque classe en utilisant aussi peu que 5 ou 10 exemples par classe, avec seulement 10 classes de ce type sans imposer aucune contrainte a priori. GLICO est ensuite utilisé pour augmenter le petit ensemble d'entraînement tout en formant un classifieur sur l'échantillon restreint. À cette fin, notre méthode proposée échantillonne l'espace latent appris en utilisant une interpolation sphérique et génère de nouveaux exemples à l'aide du générateur entraîné. Les résultats empiriques montrent que l'ensemble nouvellement échantillonné est suffisamment diversifié, conduisant à une amélioration de la classification d'images par rapport aux méthodes les plus avancées actuellement disponibles, lorsque formé sur des petits échantillons issus de CIFAR-10, CIFAR-100 et CUB-200.

Optimisation générative latente implicite conditionnelle lors de l'apprentissage à partir d'échantillons réduits | Articles de recherche récents | HyperAI