HyperAIHyperAI
il y a 3 mois

Apprentissage par renforcement hors politique pour une recherche d'architecture de GAN efficace et efficace

Yuan Tian, Qin Wang, Zhiwu Huang, Wen Li, Dengxin Dai, Minghao Yang, Jun Wang, Olga Fink
Apprentissage par renforcement hors politique pour une recherche d'architecture de GAN efficace et efficace
Résumé

Dans cet article, nous proposons une nouvelle méthodologie fondée sur l'apprentissage par renforcement (RL) pour la recherche d'architectures neuronales (NAS) appliquée à la recherche d'architectures de réseaux génératifs adversariaux (GAN), visant une efficacité et une efficience accrues. L'idée centrale consiste à formuler le problème de recherche d'architecture de GAN comme un processus de décision markovien (MDP), afin d’assurer un échantillonnage d’architectures plus fluide, ce qui permet d’optimiser l’algorithme de recherche basé sur le RL en ciblant l’architecture globalement optimale potentielle. Pour améliorer l’efficacité, nous exploitons un algorithme de recherche d’architecture de GAN hors politique (off-policy), qui utilise de manière efficace les échantillons générés par les politiques antérieures. Les évaluations menées sur deux jeux de données standards (CIFAR-10 et STL-10) démontrent que la méthode proposée parvient à découvrir des architectures hautement compétitives, produisant des résultats d’image générée généralement supérieurs, tout en réduisant considérablement la charge computationnelle — à seulement 7 heures de calcul sur GPU. Le code source est disponible à l’adresse suivante : https://github.com/Yuantian013/E2GAN.