
生成対抗ネットワーク(GAN)は、画像生成タスクにおいて高い成功を収めてきた。しかし、GANの学習は本質的に不安定である。多くの研究が、手動でGANのアーキテクチャを修正することで安定性を向上させようとしているが、これには高度な専門知識が求められる。近年、ニューラルアーキテクチャ探索(NAS)は、GANの自動探索という魅力的な解決策として注目されている。初期のNAS-GANは、探索の複雑性を低減するために生成器(G)のみを探索するものであったが、その結果、最適なGANとはなり得ない。最近の研究では、生成器(G)と識別器(D)の両方を探索する試みがなされているが、GAN学習の不安定性に起因して、依然として課題が残っている。この問題を緩和するため、本研究では効率的な2段階進化的アルゴリズムに基づくNASフレームワーク、EAGANを提案する。EAGANは、GとDの探索を2段階に分離する。第1段階では固定されたDのもとでGを探索し、多対一の学習戦略を採用する。第2段階では、第1段階で得られた最適なGを用いてDを探索し、一対一の学習戦略および重みリセット戦略を導入することで、GAN学習の安定性を向上させる。両段階において、複数の目的(モデルサイズ、Inception Score(IS)、Fréchet Inception Distance(FID)など)を考慮し、非優越ソート法を用いてパレート最適なアーキテクチャを生成する。EAGANは非条件画像生成タスクに適用され、CIFAR-10データセット上で1.2 GPU日で効率的な探索を完了できる。探索されたGANはCIFAR-10データセットにおいて競争力のある性能(IS = 8.81 ± 0.10、FID = 9.91)を達成し、STL-10データセットにおいても従来のNAS-GANを上回る結果(IS = 10.44 ± 0.087、FID = 22.18)を示した。ソースコード:https://github.com/marsggbo/EAGAN。