
要約
生成対抗ネットワーク(GANs)はデータサンプリングプロセスの学習に広く使用されており、限られた計算リソース下ではその性能が損失関数に大きく依存する可能性があります。本研究では、最大平均分散(MMD)を損失関数として用いるMMD-GANを見直し、2つの貢献を行います。まず、既存のMMD損失関数が実際のデータの判別器出力を縮小しようとするため、データの微細な詳細の学習を阻害する可能性があると指摘します。この問題に対処するために、MMD内の項を単純に再配置することで実際のデータ間の差異を積極的に学習する反発型損失関数を提案します。次に、ヒンジ損失に着想を得て、反癬型損失関数を使用したMMD-GANの訓練を安定させるために有界ガウシアンカーネルを提案します。提案手法はCIFAR-10、STL-10、CelebA、およびLSUN bedroomデータセットにおける非監督画像生成タスクに適用されました。結果は、反癬型損失関数が追加的な計算コストなしでMMD損失を超えて大幅に改善し、他の代表的な損失関数よりも優れていることを示しています。提案手法は単一のDCGANネットワークとスペクトル正規化を使用してCIFAR-10データセット上でFIDスコア16.21を達成しました。