17日前
限られたデータ下における生成対抗ネットワークの正則化
Hung-Yu Tseng, Lu Jiang, Ce Liu, Ming-Hsuan Yang, Weilong Yang

要約
近年、生成 adversarial ネットワーク(GAN)の分野では急速な進展が見られました。しかし、GANモデルの成功は大量の学習データに依存しているのが現状です。本研究では、限られたデータ条件下でも堅牢なGANモデルを訓練するための正則化手法を提案します。理論的に、正則化された損失関数と、LeCam散度と呼ばれるf-ダイバージェンスの間に関係があることを示しました。このLeCam散度は、学習データが限られた状況下でもよりロバストであることが判明しました。複数のベンチマークデータセットを用いた広範な実験により、提案手法が1)限られた学習データ下でもGANモデルの汎化性能を向上させ、学習ダイナミクスを安定化すること、および2)最近のデータ拡張手法と相補的に機能することを実証しました。これらの特性により、ImageNetベンチマークの限られた学習データしか利用できない状況でも、最先端の性能を達成するGANモデルの訓練が可能となります。