
要約
生成対抗ネットワーク(GAN)の成功にもかかわらず、その学習過程にはモード崩壊や非連結な多様体集合の学習における困難といった、広く知られた問題が存在する。本論文では、複雑な高次元分布を学習するという困難なタスクを、より単純なサブタスクに分解することで対処する。我々のアプローチは、空間をより小さな領域に分割するパーティショナライザ(分割器)を設計し、各領域に対して異なる生成器を別々に学習するという手法に基づいている。このプロセスはラベルなしの教師なし学習として実行される。本研究では、複数の生成器の混合モデル(mixture of generators)の学習を支援するための、空間分割器に求められる2つの望ましい特性を定式化する。第一に、分割領域が連結であることが求められ、第二に、分割領域とデータサンプル間の距離の代理指標を提供するとともに、その距離を縮小するための方向性を示すことが求められる。これらの条件は、実際には存在しないデータ密度の領域からサンプルを生成するのを回避し、生成器の学習をより効果的に進めるために設計されている。上記の条件を満たすための理論的制約を導出し、その理論的分析を基に、実証的にこれらの条件を満たすことができる有効なニューラルアーキテクチャを提案する。複数の標準ベンチマークにおける実験結果から、提案する教師なしモデルが近年のいくつかの手法を上回る性能を発揮することが確認された。