2ヶ月前

GANの学習動態のより良い理解と正則化に向けて

Weili Nie; Ankit Patel
GANの学習動態のより良い理解と正則化に向けて
要約

生成対抗ネットワーク(GANs)は、訓練が非常に難しく、その収束行動の背後にある理由はまだ完全には理解されていません。本研究では、まず単純ながら代表的なGANの例を考慮し、その局所的な収束行動を非漸近的に数学的に解析します。さらに、特定の仮定のもとで一般のGANにもこの解析を拡張します。結果として、良い収束率を確保するためには、GANの訓練動態におけるヤコビ行列の2つの要因を同時に避ける必要があることがわかりました。これらの要因は (i) フェーズ要因(Phase Factor)、すなわちヤコビ行列が実部に対する虚部の比率が大きい複素固有値を持つこと、および (ii) 条件付け要因(Conditioning Factor)、すなわちヤコビ行列が条件数が悪いこと(ill-conditioned)です。これまでのヤコビ行列正則化手法は、これらの2つの要因のいずれかを緩和することができましたが、一方をより深刻にする傾向がありました。そこで我々は新しいヤコビ行列正則化手法(JAcobian REgularization: JARE)を提案します。この手法は構造上両方の要因に対処します。最後に、理論解析を確認し、JAREが従来の手法よりもGANの安定化に優れていることを示す実験を行いました。注:「ill-conditioned」は「条件数が悪い」と訳しましたが、「病状態」という表現も使われることがあります。文脈によって適切な表現を選択してください。

GANの学習動態のより良い理解と正則化に向けて | 最新論文 | HyperAI超神経